Los nuevos sensores de profundidad podrían ser lo suficientemente sensibles como para que los vehículos sean autónomos

Imprimir

Durante los últimos 10 años, el grupo Camera Culture en el Media Lab del MIT ha desarrollado innovadores sistemas de imágenes, desde una cámara que puede ver alrededor de las esquinas hasta una que puede leer texto en libros cerrados, usando "tiempo de vuelo", un enfoque que mide la distancia midiendo el tiempo que tarda la luz proyectada en una escena en rebotar en un sensor.
En un nuevo documento que aparece en IEEE Access, los miembros del grupo Camera Culture presentan un nuevo enfoque para las imágenes de tiempo de vuelo que aumenta su resolución en profundidad en 1.000 veces. Ese es el tipo de resolución que podría hacer que los vehículos autónomos sean prácticos.
El nuevo enfoque también podría permitir mediciones de distancia precisas a través de la niebla, lo que ha demostrado ser un obstáculo importante para el desarrollo de automóviles sin conductor.
En un rango de 2 metros, los sistemas existentes de tiempo de vuelo tienen una resolución de profundidad de alrededor de un centímetro. Eso es lo suficientemente bueno para los sistemas de estacionamiento asistido y detección de colisión en los automóviles actuales.
Pero tal y como comenta Achuta Kadambi, estudiante de doctorado en ingeniería eléctrica e informático y artes y ciencias de los medios: "A medida que aumenta el alcance, su resolución disminuye exponencialmente. Supongamos que tiene un escenario de largo alcance y desea que su vehículo detecte un objeto más lejano para que pueda tomar una decisión rápida de actualización. Es posible que haya empezado a 1 centímetro, pero ahora está de vuelta a [una resolución de] 0,3m o incluso 1,5m. Y si comete un error, podría perder la vida".
A distancias de 2 metros, el sistema de los investigadores del MIT, por el contrario, tiene una resolución de profundidad de 3 micrómetros. Kadambi también llevó a cabo pruebas en las que envió una señal de luz a través de 500 metros de fibra óptica con filtros regularmente espaciados a lo largo de su longitud, para simular la caída de energía en distancias más largas, antes de alimentarlo a su sistema. Esas pruebas sugieren que, en un rango de 500 metros, el sistema MIT aún debe lograr una resolución de profundidad de solo un centímetro.
Kadambi se ha unido al equipo por su asesor de tesis, Ramesh Raskar, profesor asociado de artes y ciencias de los medios y jefe del grupo Camera Culture.

Cámara lenta
Con las imágenes de tiempo de vuelo, se dispara una pequeña ráfaga de luz en una escena, y una cámara mide el tiempo que tarda en regresar, lo que indica la distancia del objeto que lo reflejó. Cuanto más tarda el estallido de la luz, más ambigua es la medida de la distancia recorrida. Por lo tanto, la longitud de ráfaga de luz es uno de los factores que determina la resolución del sistema.
El otro factor, sin embargo, es la tasa de detección. Los moduladores, que encienden y apagan un rayo de luz, pueden cambiar mil millones de veces por segundo, pero los detectores actuales pueden hacer solo unos 100 millones de mediciones por segundo. La tasa de detección es lo que limita los sistemas existentes de tiempo de vuelo a una resolución de escala de un centímetro.
Sin embargo, hay otra técnica de imagen que permite una resolución más alta, dice Kadambi. Esa técnica es la interferometría, en la que un rayo de luz se divide en dos, y la mitad se mantiene en circulación localmente, mientras que la otra mitad, el "rayo de muestra", se dispara en una escena visual. El haz de muestra reflejado se recombina con la luz localmente circulada, y la diferencia de fase entre los dos haces, la alineación relativa de los valles y crestas de sus ondas electromagnéticas, proporcionan una medida muy precisa de la distancia que ha recorrido el haz de muestra.
Pero la interferometría requiere una sincronización cuidadosa de los dos haces de luz. "Nunca se puede instalar interferometría en un automóvil porque es muy sensible a las vibraciones", dice Kadambi. "Estamos utilizando algunas ideas de la interferometría y algunas de las ideas de LIDAR, y estamos combinando las dos aquí".

Al ritmo
También están, explica, usando algunas ideas de la acústica. Cualquiera que haya tocado en un conjunto musical está familiarizado con el fenómeno del "ritmo". Si dos cantantes, por ejemplo, están un poco desafinados -uno produce un tono a 440 hertzios y el otro a 437 hertzios- la interacción de sus voces producirá otro tono, cuya frecuencia es la diferencia entre las notas que están cantando, en este caso, 3 hercios.
Lo mismo sucede con pulsos de luz. Si un sistema de imágenes de tiempo de vuelo enciende luz en una escena a un ritmo de mil millones de pulsos por segundo, y la luz de retorno se combina con un pulso de luz de 999.999.999 veces por segundo, el resultado será una señal luminosa que parpadea una vez por segundo, una tasa fácilmente detectable con una cámara de video comercial. Y ese "ritmo" lento contendrá toda la información de fase necesaria para medir la distancia.
Pero en lugar de intentar sincronizar dos señales de luz de alta frecuencia, como deben hacerlo los sistemas de interferometría, Kadambi y Raskar simplemente modulan la señal de retorno, utilizando la misma tecnología que la produjo en primer lugar. Es decir, pulsan la luz ya pulsada. El resultado es el mismo, pero el enfoque es mucho más práctico para los sistemas de automoción.
"La fusión de la coherencia óptica y la coherencia electrónica es única", dice Raskar. "Estamos modulando la luz a unos pocos gigahercios, así que es como encender y apagar una linterna millones de veces por segundo. Pero estamos cambiando eso electrónicamente, no ópticamente. La combinación de los dos es donde obtienes la potencia para este sistema ".

Escrito por Larry Hardesty, Oficina de Noticias del MIT

Otras referencias

PAPER: Rethinking machine vision time of flight with GHz heterodyning
http://web.media.mit.edu/~achoo/beat/Kadambi_beat_lowres.pdf
ARCHIVE: Judging a book through its cover
http://news.mit.edu/2016/computational-imaging-method-reads-closed-books-0909
ARCHIVE: Making 3-D imaging 1,000 times better
http://news.mit.edu/2015/algorithms-boost-3-d-imaging-resolution-1000-times-1201
ARCHIVE: Inexpensive ‘nano-camera’ can operate at the speed of light
http://news.mit.edu/2013/inexpensive-nano-camera-1126