El procesamiento de la luz mejora la detección robótica, según un estudio

Un equipo de investigadores del ejército descubrió cómo el cerebro humano procesa la luz brillante y contrastada, lo cual, según ellos, es clave para mejorar la detección robótica y permitir que los agentes autónomos se asocien con los humanos.

Para permitir el desarrollo de la autonomía, una de las principales prioridades del Ejército, la detección mecánica debe ser resistente en entornos cambiantes, dijeron los investigadores.

“Cuando desarrollamos algoritmos de visión artificial, las imágenes del mundo real suelen comprimirse a un rango más estrecho, como lo hace la cámara de un teléfono móvil, en un proceso llamado mapeo de tonos”, dijo Andre Harrison, investigador del Laboratorio de Investigación del Ejército del Comando de Desarrollo de Capacidades de Combate del Ejército de los Estados Unidos. “Esto puede contribuir a la fragilidad de los algoritmos de visión artificial porque se basan en imágenes artificiales que no coinciden con los patrones que vemos en el mundo real”.

Al desarrollar un nuevo sistema con una capacidad de visualización de 100.000 a 1, el equipo descubrió los cálculos del cerebro, bajo más condiciones del mundo real, para poder construir una resistencia biológica en los sensores, dijo Harrison.

Los algoritmos de visión actuales se basan en estudios en humanos y animales con monitores de computadora, que tienen un rango limitado de luminancia de alrededor de 100 a 1, la proporción entre los píxeles más brillantes y los más oscuros. En el mundo real, esa variación podría ser una proporción de 100.000 a 1, una condición llamada alto rango dinámico, o HDR.

“Los cambios y las variaciones significativas en la luz pueden desafiar a los sistemas del Ejército – los drones que vuelan bajo el dosel del bosque podrían confundirse con los cambios de reflectancia cuando el viento sopla a través de las hojas, o los vehículos autónomos que conducen por terreno accidentado podrían no reconocer baches u otros obstáculos porque las condiciones de iluminación son ligeramente diferentes de aquellas en las que sus algoritmos de visión fueron entrenados”, dijo el investigador del Ejército Dr. Chou Po Hung.

El equipo de investigación trató de entender cómo el cerebro toma automáticamente la entrada de 100.000 a 1 del mundo real y la comprime a un rango más estrecho, lo que permite a los humanos interpretar la forma. El equipo estudió el procesamiento visual temprano bajo el HDR, examinando cómo interactúan características simples como la luminancia y los bordes del HDR, como una forma de descubrir los mecanismos cerebrales subyacentes.

“El cerebro tiene más de 30 áreas visuales, y todavía tenemos sólo una comprensión rudimentaria de cómo estas áreas procesan la imagen del ojo en una comprensión de la forma 3D”, dijo Hung. “Nuestros resultados con los estudios de luminancia HDR, basados en el comportamiento humano y las grabaciones del cuero cabelludo, muestran lo poco que sabemos realmente sobre cómo salvar la brecha entre el laboratorio y los entornos del mundo real. Pero, estos hallazgos nos sacan de esa caja, mostrando que nuestras suposiciones previas de los monitores de computadora estándar tienen una capacidad limitada para generalizar al mundo real, y revelan principios que pueden guiar nuestro modelado hacia los mecanismos correctos”.

El Journal of Vision publicó los hallazgos de la investigación del equipo, El oscurecimiento abrupto bajo la luminancia de alto rango dinámico (HDR) invoca la facilitación de objetivos de alto contraste y la agrupación por similitud de luminancia.

Los investigadores dijeron que el descubrimiento de cómo interactúan los bordes de luz y contraste en la representación visual del cerebro ayudará a mejorar la efectividad de los algoritmos para reconstruir el verdadero mundo tridimensional bajo la luminancia del mundo real, corrigiendo las ambigüedades que son inevitables cuando se estima la forma tridimensional a partir de la información 2D.

“A través de millones de años de evolución, nuestros cerebros han desarrollado atajos efectivos para reconstruir la 3D a partir de la información 2D”, dijo Hung. “Es un problema de décadas de antigüedad que continúa desafiando a los científicos de la visión artificial, incluso con los recientes avances en la IA”.

Además de la visión para la autonomía, este descubrimiento también será útil para desarrollar otros dispositivos habilitados para la IA, como el radar y la comprensión del habla a distancia que dependen de la detección a través de amplios rangos dinámicos.

Con sus resultados, los investigadores están trabajando con socios en el mundo académico para desarrollar modelos computacionales, específicamente con neuronas de pico que pueden tener ventajas tanto para la computación HDR como para un procesamiento de visión más eficiente en cuanto a potencia, ambas consideraciones importantes para los drones de baja potencia.

“El tema del rango dinámico no es sólo un problema de percepción”, dijo Hung. “También puede ser un problema más general en la computación cerebral porque las neuronas individuales tienen decenas de miles de entradas. ¿Cómo se construyen algoritmos y arquitecturas que puedan escuchar las entradas correctas en diferentes contextos? Esperamos que, trabajando en este problema a nivel sensorial, podamos confirmar que vamos por el buen camino, para poder tener las herramientas adecuadas cuando construyamos IA más complejos”.

Comments Off on El procesamiento de la luz mejora la detección robótica, según un estudio

Filed under My Blog

Comments are closed.