Innovación

Los reflejos en las fotografías son cosa del pasado gracias al MIT

MIT reflejos fotografía

Científicos del MIT desarrollan un nuevo algoritmo que detecta los reflejos en las imágenes tomadas a través de un cristal y permite eliminarlos.

Todos sabemos lo complicado que es sacar una fotografía a través de una ventana y que no salga nuestro rostro reflejado en el cristal. Parecía uno de esos problemas de la vida cotidiana que nunca se iban a poder resolver. Hasta ahora.

El Massachussets Institute of Technology (MIT, por sus siglas en inglés) ha desarrollado un nuevo algoritmo es capaz de eliminar este tipo de reflejos de las imágenes digitales. Los científicos de esta universidad han descubierto que, aunque nosotros veamos un solo rostro reflejado en el cristal, en realidad hay muchas ocasiones (especialmente con ventanas de doble cristal o vidrios muy gruesos) en que se producen varios reflejos casi idénticos, levemente compensados entre sí.

Eso les ha permitido crear un sistema que detecta cuál es la figura reflejada gracias a esta duplicidad de información entre la hoja de cristal exterior y la interior. Sin contar con estos dos datos, la diferenciación sería imposible, ya que no se sabría si esa parte de la foto es reflejo o el paisaje exterior.  “Tenemos una imagen al aire libre y otra imagen del rostro, pero lo que se captura es la suma de estas dos imágenes”, explica el científico del MIT YiChang Shih. “Si A + B es igual a C, entonces ¿cómo va a recuperar A y B desde un solo C? Eso es matemáticamente difícil. Simplemente no tenemos suficientes limitaciones para llegar extraerla”.

Sin embargo, al contar con un segundo reflejo, un algoritmo especialmente diseñado para ello puede deducir que ese fragmento de imagen es accesorio y puede eliminarse.

Eliminando el reflejo

Quien les iba a decir a los investigadores que detectar cuál era el reflejo y cuál la imagen buena sería el menor de sus problemas. Y es que, aunque se las prometían felices para eliminar el reflejo de las fotografías, lo cierto es que tuvieron que replantearse el enfoque tradicional para poderlo llevar a cabo.

La premisa habitual que manejan los técnicos es que, a nivel de pequeños grupos de píxeles, en imágenes naturales, los cambios bruscos de color son raros. Y cuando ocurren, suceden a lo largo de límites claros. Así que si un pequeño bloque de píxeles pasa a contener en la parte del borde entre un objeto azul y un objeto rojo, todo en un lado del borde será azulado y todo en el otro lado será rojizo. En la visión por ordenador, la forma estándar para tratar de entender esta teoría es la noción de gradientes de imagen, que caracteriza a cada bloque de píxeles de acuerdo las tasas y dirección de cambio de color.

Sin embargo, este modelo no les funcionó a los científicos del MIT. Por ello apostaron por una nueva técnica, creada por el científico del MIT Daniel Zoran y Yair Weiss, de la Universidad Hebrea de Jerusalén. Ambos han desarrollado un algoritmo que divide las imágenes en bloques de píxeles de 8×8. Para cada bloque, se calcula la correlación entre cada píxel y cada uno de los otros. Las estadísticas agregadas de los bloques de 8×8 de las 50.000 imágenes usadas para probar su efectividad  constataron que era una manera precisa para distinguir los reflejos de imágenes tomadas a través del cristal.

Sobre el autor de este artículo

Alberto Iglesias Fraga

Periodista especializado en tecnología e innovación que ha dejado su impronta en medios como TICbeat, El Mundo, ComputerWorld, CIO España, Kelisto, Todrone, Movilonia, iPhonizate o el blog Think Big de Telefónica, entre otros. También ha sido consultor de comunicación en Indie PR. Ganador del XVI Premio Accenture de Periodismo y Finalista en los European Digital Mindset Awards 2016.