Las noches se convierten en una pesadilla para quienes deben liderar misiones de rescate y no cuentan con equipos sofisticados que les permitan llegar hasta donde los necesitan, incluso cuando se trata de salvar vidas. En la actualidad existen sistemas de visión nocturna que apoyan estas misiones con el fin de que los rescatistas puedan orientarse en la oscuridad, encuentren las personas que están en peligro y realicen su trabajo con menos dificultades. Estos sistemas deben entregar imágenes con detalles visuales enriquecidos, los cuales se producen combinando las imágenes que ve el ojo humano, llamadas el espectro visible, e imágenes infrarrojas, aquellas que se generan a partir del calor emitido por los objetos. Sin embargo, como el usuario final es un ser humano, es indispensable que la calidad visual de estas imágenes se pueda evaluar automáticamente, es decir, sin la intervención de una persona.
Un estudio realizado por investigadores de la Pontificia Universidad Javeriana Cali y la Universidad de Texas en Austin aporta una solución al problema de evaluar automáticamente imágenes fusionadas mediante el desarrollo de una medida de evaluación de calidad de imágenes de este tipo.
“El objetivo fue fusionar lo mejor de dos mundos. Por un lado, las imágenes en espectro visible muestran ciertos detalles mientras que las de espectro infrarrojo captan ondas que no son visibles para el ojo humano. Esta fusión es un aporte importante al desarrollo de los sistemas de visión nocturna”, aseguró Hernán Darío Benítez Restrepo, profesor de la Facultad de Ingeniería de la Javeriana Cali.
La evaluación automática de la calidad de imágenes es un tema de investigación desafiante, que es abordado en la actualidad por varias universidades en el mundo y empresas como Facebook, Netflix y Apple. Luego de dos años, los profesores Hernán Benítez y Alan Conrad Bovik, de la Universidad de Texas en Austin, junto con David Moreno, egresado de Ingeniería Electrónica de la Javeriana Cali, lograron medir la calidad visual de estas imágenes fusionadas y predecir con un alto grado de confianza la precisión con la que eran percibidas por los seres humanos, a un nivel mayor que otras medidas existentes reportadas en la literatura científica actual, dicen los investigadores.
La medida puede ser un punto de partida sólido para evaluar y comparar sistemas de visión nocturna y mejorar las posibilidades de rescates exitosos en condiciones de poca luz u oscuridad.
En el estudio analizaron cinco métodos de multirresolución para la fusión de imágenes que generalmente presentan distorsiones comunes como borrosidad, ruido gaussiano −en donde los píxeles de la imagen se ven alterados y generan gránulos digitales−, compresión JPEG para lograr que las imágenes ocupen menos espacio en la memoria y no uniformidad en el sensor que capta las imágenes térmicas infrarrojas de onda larga (LWIR, por sus siglas en inglés).
El camino para lograr resultados
El método se basa en unas características de escenas naturales, como las tomadas con cámaras convencionales, lo que las hace diferentes a las escenas artificiales como las generadas por computación gráfica y las de los videojuegos. Las imágenes térmicas LWIR son producidas a través de cámaras que captan la radiación infrarroja emitida por los objetos dentro de una escena y la convierten en una señal eléctrica para generar posteriormente un valor de temperatura.
Los autores llevaron a cabo un estudio subjetivo para el análisis de imágenes fusionadas originales y degradadas −es decir, distorsionadas visualmente−, en el que participaron 27 personas que evaluaron 750 imágenes a lo largo de cinco sesiones. De esta forma, los investigadores comprobaron que su método de medición superaba a los demás.
Éste se diferencia de los ya existentes por el uso de las características matemáticas extraídas a partir de la imagen, las cuales predicen la percepción visual humana. Una de las potenciales aplicaciones de esta medida es la visión nocturna, por ejemplo, para rescates y uso militar en operaciones nocturnas de vigilancia.
Aún existen los retos
Los investigadores esperan extender los resultados obtenidos al análisis de imágenes multiespectrales, en donde también se fusionan imágenes. Este tipo de imágenes se adquieren en diferentes bandas o segmentos del espectro electromagnético. Cada una de ellas tiene información diferente sobre lo que se está estudiando. Esto es muy útil, por ejemplo, en agricultura, pues permite analizar la salud de un cultivo. Otra ventaja es que se puede hacer monitoreo a través de dispositivos como vehículos aéreos no tripulados o drones, explicó el profesor Benítez.
Financiado por la Javeriana Cali y Colciencias, a través del programa Convocatoria para el Apoyo a Proyectos con Norteamérica 2014, el estudio es un aporte para que los desarrollos tecnológicos incidan positivamente en situaciones de riesgo, en donde prevalece la integridad del ser humano.
Para leer más
- Moreno, D, Benítez Restrepo, H.D. y Bovik, A. (2017). Predicting the Quality of Fused Long-Wave Infrared and Visible Light Images. IEEE Transactions on Image Processing, 26(7), 3479-3491.
Fuente fotográfica
- N. J. W. Morris, S. Avidan, W. Matusik, and H. Pfister, “Statistics of infrared images,” in Proc. IEEE Conf. Comput. Vis. Pattern Recognit., Jun. 2007, pp. 1–7.
TÍTULO DE LA INVESTIGACIÓN: Evaluation of Video Distortions on Fused Infrared and Visible Videos in Surveillance Applications.
INVESTIGADOR PRINCIPAL: Hernán Darío Benítez Restrepo.
COINVESTIGADORES: David Moreno y Alan Bovik Facultad de Ingeniería Departamento de Electrónica y Ciencias de la Computación.
PERIODO DE LA INVESTIGACIÓN: 2016-2017.