Aunque no tenemos la magnífica visión nocturna de los búhos, que son capaces de ver sin problemas en la noche más oscura, los seres humanos somos capaces de adaptarnos a las condiciones lumínicas con cierta rapidez para distinguir formas y poder deambular de acá para allá. Esto se conoce como visión escotópica, una especie de «cambio de modo visual» en nuestros ojos, y aunque se limita a una visión monocromática y con poca agudeza visual resulta práctica al fin y al cabo.
Los coches autónomos, en cambio, se enfrentan a este problema pero con mayores dificultades. El uso de cámaras convencionales complica las situaciones de poca luz, cuando solo se cuenta con la luz de la carretera o en el caso de las cámaras que quedan fuera del alcance de los faros. Tampoco ayuda que algunas cámaras empleen filtros polarizadores, pues aunque proporcionan ciertas ventajas para unas cosas, hacen disminuir la cantidad de luz que reciben.
Todo esto afecta de forma negativa al rendimiento de estos sistemas de navegación autónoma que dependen de las cámaras, algo importante dado que se busca siempre que proporcionen la máxima seguridad.
Un trabajo teórico sobre visión, con implicaciones prácticas
Ahora unos investigadores han pensado en utilizar algunas de las características del ojo humano basándose en una teoría llamada Retinex y la idea de que nuestros cerebros pueden hacer buen uso de la iluminación y la reflectancia, la cantidad de luz reflejada (indicada con un valor entre 0 y 1) para interpretar la percepción visual de las escenas.
El trabajo, plasmado en un modelo llamado RPLNet, logra mantener características importantes para los sistemas de conducción autónoma como son la percepción de los colores y utiliza filtros polarizadores sin que esto afecte a su rendimiento. Lo que hacen es utilizar un algoritmo que procesa los dos valores importantes, reflectancia e iluminación, de manera separada. Esto permite mejorar la claridad, los detalles y conservar los colores.
¿Cómo se prueba un sistema de este tipo? Se necesita un gran conjunto de datos para el entrenamiento, pero los que suelen estar disponibles públicamente –que son millones de horas de conducción– están grabados en condiciones de luz de día, y en condiciones medioambientales neutras. Así que los investigadores crearon un conjunto específico llamado «LOL-Drive» (de Low-Light Drive, «conducción con poca luz») para realizar el entrenamiento del sistema. Con eso se pudieron crear unos mapas específicos para las curvas de las imágenes que permitieran mejorar la reflectancia y la iluminación. Esto es algo, en cierto modo, parecido a los «filtros de Instagram» que ajustan ciertos valores de una fotografía para destacar un tipo de detalles u otros.
Mejoras medibles, conclusiones prometedoras
Según las pruebas en escenarios nocturnos el RPLNet mejora un 10% la precisión de la conducción, una cifra importante. ¿El problema? De momento, el algoritmo necesita gigantescas cantidades de datos para el entrenamiento, lo que de momento lo hace poco práctico. Ahora los investigadores están tratando de modificar el sistema de aprendizaje por otras técnicas, como el aprendizaje automático no-supervisado y el supervisado-débil, para hacerlo más accesible.