Casi al mismo tiempo que se presentó el primer Tesla Model S, apareció otro nuevo nombre en la industria automotriz: Mobileye. Mientras que muchos otros desarrolladores de sensores para la detección de objetos se centraron principalmente en grandes cantidades y enormes cantidades de datos precargados (mapas 3D del entorno), Mobileye se centró principalmente en un sistema de cámara (el ojo móvil) que puede manejar imágenes reales. situaciones de tiempo completamente por sí solo puede estimar. En este artículo analizamos las diferentes versiones de conducción autónoma que esto hace posible y cómo continuará este desarrollo.
Imagen: Representación esquemática del funcionamiento tradicional de ADAS (arriba) versus el funcionamiento de ADAS según Mobileye (abajo)
EyeQ es la base de la tecnología exclusiva de cámara de Mobileye: un SoC (System on Chip) especialmente desarrollado. Inmediatamente después de su introducción en 2007, EyeQ atrajo la atención de varios fabricantes de automóviles importantes, que buscaban un socio que pudiera suministrar un sistema ADAS completo. Se han vendido más de 100 millones (!) de EyeQ en todo el mundo, repartidos en más de 700 modelos de automóviles de más de 35 fabricantes de automóviles diferentes. El último modelo superior de 2023, el EyeQ6H, tiene su propio procesador de señal de imagen (ISP) interno, un procesador de gráficos (GPU) y un codificador de video. Esto permite controlar sistemas con nivel de autonomía 2+. Incluso las formas más premium de ADAS no son un problema para este SoC. Con un hardware de este calibre, probablemente no sorprenda que esta tecnología tenga muchas funciones. Funciones como advertencia de cambio de carril, asistencia para mantenerse en el carril, frenado automático de emergencia, advertencia de colisión frontal, control de crucero adaptativo, reconocimiento de señales de tráfico, asistencia de luces altas y asistencia de estacionamiento son posibles con el EyeQ SoC. En determinados casos, la cámara central sigue recibiendo asistencia del radar.
Imagen: Una mirada al interior del EyeQ
Para alcanzar el nivel de autonomía 3 o superior sin utilizar muchos sensores o mapas 3D a gran escala, Mobileye buscó una forma alternativa de obtener conocimiento previo, con el que EyeQ tendría más información de la que la cámara tenía a la vista en ese momento.
La solución llegó en 2018 en forma de Road Experience Management (REM). Básicamente, se trata de un sistema en el que cada automóvil con un nuevo EyeQ SoC almacena continuamente información sobre el mundo que ve la cámara. Toda esta información se recoge de forma centralizada y se convierte en un Roadbook: su propio mapa en tiempo real en el que no sólo se conoce el entorno, sino que también queda claro cómo y con qué posicionamiento se utiliza el tramo de carretera. Luego, toda esta información se comparte por aire (OTA) con los otros vehículos EyeQ, que luego pueden tomar mejores decisiones en modo autónomo.
Quizás puedas imaginar que, dada la enorme cantidad de SoC EyeQ en circulación, esto conducirá rápidamente a un todo completo y práctico. Sobre todo porque este sistema también puede estimar en cierta medida el comportamiento de conducción local y adaptar en consecuencia el comportamiento de conducción autónoma. Por ejemplo, una rápida incorporación es mucho más importante en medio de una ciudad ocupada que en algún lugar del campo.
Cuanto más pueda mirar ADAS a su alrededor, mejor funcionará dicho sistema y más funcionalidades serán posibles. Por eso, en colaboración con el fabricante de automóviles Geely, se presentó SuperVision: una versión muy completa de ADAS con nada menos que 7 cámaras ambientales, 4 cámaras de estacionamiento y 2 SoC.
Esta actualización masiva permite que SuperVision ADAS responda mucho más como lo haría un controlador físico. Por ejemplo, si alguien está estacionado en la calle con la puerta abierta, el sistema mantendrá un poco más de distancia (lateral). Y si un peatón camina cerca del tramo de vía, el vehículo reduce su velocidad. El sistema también es capaz de anticipar mucho mejor situaciones de tráfico como fusiones y objetos que cambian repentinamente de dirección. Considerándolo todo, un buen desarrollo.
Para que los vehículos conduzcan de forma totalmente autónoma (nivel 5), se debe incorporar una enorme cantidad de seguridad en los sistemas. Y si, como Mobileye, sólo depende de las cámaras, rápidamente tendrá problemas. No porque la conducción autónoma utilizando únicamente cámaras no sea posible, sino simplemente porque no hay respaldo para comprobar si las cámaras ven lo correcto y, por lo tanto, el sistema realiza la evaluación correcta. Por eso se optó por utilizar tanto radar como LiDAR. El enfoque es simplemente muy diferente, como también muestra la siguiente tabla. Mobileye no ve el radar y el LiDAR como complementos para completar la información, sino que confía lo suficiente en su propio sistema de cámaras como para considerar el radar y el LiDAR únicamente como medios de control. A esto lo llaman "verdadera redundancia".
Mientras que Mobileye se centra principalmente en un sistema de aplicación universal que se puede implementar con relativa facilidad en cualquier lugar, el gigante tecnológico Nvidia siempre ha visto los problemas que rodean la conducción autónoma y la enorme cantidad de datos asociada de manera diferente. Debido a que Nvidia tiene sus raíces en la industria de las computadoras (gráficas), no ven la detección de objetos como un sistema separado, sino como parte de un panorama más amplio: el automóvil completo. En realidad, un poco como una tarjeta gráfica es parte de una PC completa.
Imagen: La Nvidia DRIVE Thor en detalle
En septiembre de 2022, Nvidia anunció “DRIVE Thor”, una computadora central integral que también controla sistemas como la conducción y el estacionamiento autónomos, el monitoreo de ocupantes, el infoentretenimiento y el panel de instrumentos digital. La enorme potencia de cálculo (2000 teraflops) es el punto fuerte de Thor y hace que varias unidades de control separadas sean completamente innecesarias. La plataforma también permite la computación multidominio, que, por ejemplo, permite que la conducción autónoma funcione de forma totalmente independiente y, por tanto, segura, además de las demás funciones dentro de este superordenador.
Probablemente le haya quedado claro que todos estos sistemas pueden influir enormemente en las elecciones de la ECU. El mensaje que queremos transmitir con esta información es que diagnosticar con esta nueva tecnología nunca volverá a ser lo mismo: el pedal del acelerador ya no es la única entrada a la que debe responder la gestión del motor. Por lo tanto, encontrar la causa de un mal funcionamiento se convierte en una historia compleja: ¿Está realmente defectuosa la ECU? ¿O simplemente no recibe la información correcta? ¿Y está la causa en otra parte del coche?
© 2025 ACTRONICS SL. All Rights Reserved.