La lluvia le arruina la fiesta a los vehículos autónomos
Elon Musk afirma que Tesla planea implementar la conducción autónoma con uso único de cámaras para ver lo que aparece en el camino. El enfoque de Tesla contrasta con lo que el resto de la industria automotriz está haciendo. La mayoría de los esquemas de conducción autónoma dependen de una combinación de cámaras, radares y lidar para detectar lo que hay en la ruta de un vehículo. Este enfoque multisensor se basa en la creencia de que solo las tecnologías de sensores múltiples pueden identificar escenarios que resultan confusos para las tecnologías de detección específicas.
Dada la postura de Tesla sobre la detección por cámaras, resulta interesante revisar algunos de los problemas que afectan a los sensores de vehículos autónomos a pesar de años de pruebas e investigación. Primero, consideremos las cámaras. El clásico ejemplo de un escenario problemático para las cámaras de los vehículos es cuando un vehículo llega a la cima de una montaña que da a la puesta del sol. La intensa luz del sol ciega a la cámara momentáneamente, tal cual como sucede con un conductor humano. A medida que el vehículo desciende la montaña hacia un valle oscuro, la cámara también puede quedarse ciega momentáneamente ya que tarda un poco en adaptarse a la oscuridad relativa.
También existen "casos extremos" que podrían confundir a las cámaras, pero no a los otros tipos de sensores. En el lenguaje de la inteligencia artificial, los casos extremos son situaciones extrañas que suceden en la vida real y que los algoritmos de aprendizaje automático no han detectado. El clásico ejemplo de un caso extremo que puede confundir a los sensores de la cámara es un paisaje pintado en la parte posterior de un camión. Es posible que la cámara del automóvil que está detrás del camión no se dé cuenta de que el paisaje sea solo una pintura.
Es posible que haya formas de sobrepasar tales dificultades utilizando solo la tecnología de las cámaras, como por ejemplo, incluir una cámara infrarroja a la combinación. Aun así, existe otro obstáculo que afecta a las cámaras y a otros sensores de conducción autónoma: el mal clima.
(Fuente de imagen: Littelfuse)
Una sola gota de agua (o copo de nieve) puede hacer que una cámara no funcione si se encuentra estratégicamente ubicada sobre el lente. Incluso las gotas de lluvia que no caen sobre el lente pueden producir una variación de intensidad en las imágenes y cuadros de video que complica el proceso de identificación de obstáculos. En particular, cada gota de lluvia bloquea parte de la luz que, de otro modo, se reflejaría en los objetos visibles. Las rayas de lluvia también reducen el contraste general de la escena. En pruebas realizadas en la Universidad Estatal de Michigan hace unos años, los investigadores descubrieron que los algoritmos basados en cámaras no lograron detectar ni el 20 % de los objetos bajo una lluvia ligera. Bajo una lluvia más intensa, la tasa de fallas de los algoritmos de visión aumentó hasta en un 40 %.
Existen algoritmos de eliminación de lluvia diseñados para ayudar a detectar objetos a los sistemas basados en cámaras. Pero hasta ahora, no funcionan bien. Una de las razones: Tales algoritmos se han puesto a prueba principalmente en escenas de lluvia sintética, bastante menos complejas que las de lluvia real.
El radar y el lidar tienen sus propios problemas cuando se trata de manejar bajo la lluvia o la nieve. Es fácil ver por qué. Ambos mecanismos de detección se basan en los reflejos de los objetos para ubicar e identificar lo que hay adelante. Cuando los reflejos provienen de las gotas de lluvia o los copos de nieve, es difícil identificar lo que hay más allá de la nieve y la lluvia.
Resulta que la lluvia ligera no molesta mucho al lidar. Sin embargo, la lluvia intensa puede formar grumos que el sensor lidar puede interpretar como obstáculos. Además, las pruebas han demostrado que el agua que salpica de otros vehículos después de una tormenta puede crear falsos objetivos del lidar. (Los lectores que quieran tener una idea de este problema podrían considerar seguir a un camión de 18 ruedas por un momento durante una tormenta eléctrica en una autopista). Lo mismo ocurre con la nieve. Los datos de prueba sobre el comportamiento del lidar en la nieve son escasos, pero hay indicios de que la nieve puede impedir que el lidar detecte objetos y que genere resultados falsos. Por ejemplo, en una prueba realizada en Finlandia y Suecia, se descubrió que los remolinos de nieve provocados por el automóvil de adelante pueden distorsionar las lecturas de lidar.
El radar funciona mejor que el lidar bajo la lluvia y la nieve. La nieve mojada parece ser la causante de la mayoría de los problemas. El mayor inconveniente del radar en clima húmedo parece ser su menor capacidad para detectar objetos con secciones transversales de radar más pequeñas, como los peatones.
Por supuesto, la detección de vehículos autónomos en malas condiciones meteorológicas aún es un tema de investigación. Un enfoque que está bajo investigación utiliza dos sensores en lugar de uno para detectar objetos. Si un sensor detecta un objeto cuando el otro no lo hace, las matemáticas sofisticadas intentan determinar cuál es el correcto. Sospechamos que a los fabricantes de automóviles no les entusiasma este esquema específico porque aumenta la cantidad de sensores en el vehículo, aunque también hay otros esquemas que están llamando la atención.
Más adelante, los fabricantes de automóviles probablemente logren abarcar todo tipo de clima. Al menos para los vehículos, la variación de una frase antigua puede hacerse realidad: no existe el mal clima, solo diferentes tipos de clima para conducir.
Have questions or comments? Continue the conversation on TechForum, Digi-Key's online community and technical resource.
Visit TechForum

