El CEO de StradVision, Junhwan Kim, habla sobre las tecnologías de asistencia al conductor

Vota este post

StradVision

StradVision es pionera e innovadora en tecnología de procesamiento de visión para vehículos autónomos y asistencia avanzada al conductor. Su software de percepción de cámara basado en IA permite que los sistemas avanzados de asistencia al conductor (ADAS) en vehículos autónomos alcancen el siguiente nivel de seguridad, precisión y comodidad del conductor.

La compañía apareció en los titulares recientemente cuando recibió fondos del proveedor automotriz líder mundial AISIN Group a través de su Corporate VC Fund, administrado por la firma de capital de riesgo global con sede en Silicon Valley Pegasus Tech Ventures.

Para comprender sus puntos de vista y productos a la luz de las crecientes demandas de tecnologías de asistencia al conductor para SUV, sedanes y autobuses, nos comunicamos por correo electrónico con el director ejecutivo de StradVision, Junhwan Kim, y con Anis Uzzaman, socio general y director ejecutivo de Pegasus Tech Ventures.

Ambos líderes estaban felices de responder a nuestras preguntas. Antes de unirse a StradVision, Junhwan Kim encabezó Olaworks, una empresa de reconocimiento facial que se convirtió en la primera empresa coreana adquirida por Intel.

Puedes leer la entrevista completa a continuación:

La tecnología ADAS convencional, utilizada en vehículos autónomos de nivel 1/3, está en casi todas partes. Pero el próximo gran avance en este segmento de mercado es el desarrollo de nuevos sistemas ADAS para vehículos totalmente autónomos (niveles 4 y 5). ¿Puede hablarnos sobre el software de percepción de cámara basado en aprendizaje profundo de StradVision para sistemas autónomos altamente integrados y cómo funciona?

Director ejecutivo de StradVision, Junhwan Kim

Junhwan Kim: ADAS hasta el nivel 2 es bastante común hoy en día, pero desde que comenzó el nivel 3, todas las responsabilidades legales están del lado del fabricante de automóviles, por lo que aún no es muy frecuente ya que las infraestructuras públicas y privadas no están establecidas en consecuencia para acomodar dicha tecnología (por ejemplo, seguros, políticas, carreteras, etc.). Actualmente, a partir de 2020, la inversión promedio que se destina a un vehículo ADAS para el mercado masivo es de $ 250, esto incluye el costo de la cámara, el chipset, el software, etc., y la cámara es el ganador dominante en esta categoría. A propósito, incluso si el costo de otros sensores, como LiDAR, disminuye drásticamente, dudamos que encaje en el volumen/tasa de inversión creciente de la solución ADAS, que ronda los $50 al año. Además, a medida que pasa el tiempo, la funcionalidad y la precisión crecerán, lo que eventualmente compensará los puntos de venta únicos de otros sensores: la cámara puede hacer prácticamente todo lo que requieren las funciones ADAS.

Con respecto a la autonomía de nivel cuatro y cinco, StradVision ya tiene un proyecto de producción en masa de personas de nivel cuatro en la UE: el transbordador se implementará en 2021 y transportará personas de ciudades medianas a áreas urbanas, y viceversa. El proyecto utiliza múltiples sensores desde LiDAR hasta la cámara y es un proyecto de fusión de sensores. Al menos pronto, los niveles cuatro y superiores asumirán el modelo de ‘fusión de sensores’, donde se explotarán las fortalezas clave de cada sensor para brindar la experiencia de conducción autónoma más segura.

Pero con el tiempo, creemos que la proporción de la percepción basada en la cámara aumentará debido al inevitable avance tecnológico de la cámara ‘aprendizaje de todos los oficios’ y el factor de costo perenne. En cuanto a los detalles técnicos del software de percepción de StradVision, SVNet, el aprendizaje profundo y la red/algoritmo integrado basado en cámara permiten que las cámaras ejecuten funciones de alto nivel como detección de objetos, detección de carril, detección de espacio libre, estimación de distancia y mucho más.

Según el resultado de los datos antes mencionados, los fabricantes de automóviles pueden utilizar los datos para ejecutar la mayoría de las funciones de ADAS y vehículos autónomos. Una cosa a tener en cuenta es que el tamaño de SVNet es muy pequeño y delgado, por lo que tiene mucha más libertad y espacio para las piernas para hacer más cosas para ADAS y vehículos autónomos con alta precisión.

Los ingenieros de vehículos autónomos se enfrentan a una montaña de desafíos. Uno es el desarrollo de pilas de software que pueden ejecutar cientos de millones de líneas de código dependiendo de la innumerable cantidad de escenarios en el camino. ¿Puede hablarnos sobre los desafíos clave que ha superado durante el desarrollo de ADAS para vehículos sin conductor?

Junhwan Kim: Es evidente que los datos son un imperativo de cualquier tipo de desarrollo de software hoy en día. Para ADAS y vehículos autónomos, no solo la adquisición de datos es importante, sino que también es fundamental aplicar y optimizar los datos. Nuestro trabajo en StradVision es permitir que millones de estos datos se procesen de manera eficiente en el dispositivo de borde, que no cuesta un ojo de la cara, a través de nuestro algoritmo de percepción basado en aprendizaje profundo, SVNet. Para que esto suceda, para empezar, desarrollamos SVNet para que fuera lo más pequeño posible (inicialmente nos enfocamos en la industria de las gafas inteligentes) y, a partir de ese momento, optimizamos el software para que fuera lo más eficiente posible en el hardware de grado automotriz objetivo. Pero esto presenta algunos problemas.

En primer lugar, encajar un software robusto basado en el aprendizaje profundo en un hardware realista y económico del mercado significa que el software debe adaptarse a una gran cantidad de limitaciones de hardware. Aunque nuestra especialidad es la compresión de red y la optimización de hardware, equilibrar el tamaño del software y cumplir con las expectativas de los fabricantes de automóviles es siempre una tarea hercúlea. Pero a pesar de todo esto, superamos este desafío hace un tiempo y ya tenemos nueve millones de ADAS de nivel 2 y People Mover de nivel 4 en producción, desde China hasta Alemania.

Otro desafío que superamos es el relacionado con los datos. Crear una IA robusta requiere una enorme cantidad de datos y, por supuesto, etiquetado. Mientras que los fabricantes de automóviles y nuestros competidores utilizan ejércitos de etiquetadores de datos para anotar datos con el fin de entrenar sus algoritmos, StradVision tiene una herramienta de etiquetado automático que automatiza el 97 % del proceso, lo que hace que el entrenamiento de la red sea extremadamente escalable con un resultado de mayor precisión y seguridad. Además, dado que los casos extremos restantes son analizados por nuestros especialistas en datos, aplicamos directamente los factores de riesgo en nuestro software para anticiparlos y mitigarlos.

Para que los algoritmos «vean» y tomen decisiones correctas en tiempo real en todas las condiciones de manejo, requieren el conjunto adecuado de sensores, combinado con suficiente rendimiento de hardware. Esto implica una gran cantidad de problemas de hardware y software. Muchas empresas de vehículos autónomos construyen sus sensores que se ajustan a los requisitos específicos. Como proveedor de soluciones de software, ¿cómo planea enfrentar los desafíos del mercado y las innovaciones en sensores y procesadores?

Junhwan Kim: En 2020, la inversión promedio que se destina a un solo vehículo ADAS para el mercado masivo es de $250. Varias empresas promocionan su destreza técnica, pero a menudo pasan por alto el hecho de que el hardware (FPGA, GPU, SoC, etc.) que habilita su tecnología supera con creces el presupuesto mencionado y la cantidad de vehículos que implementaron en el mundo real. Desarrollar tecnología de última generación es una cosa, pero implementarla de manera segura y precisa para que las masas la utilicen de inmediato es una historia completamente diferente.

En StradVision anticipamos desde el principio que el mercado masivo no aumentaría exponencialmente la inversión en ADAS y AV en el corto y mediano plazo y enfocamos nuestra tecnología para que sea compatible con cualquier margen técnico y financiero que tenga la industria automotriz del mercado masivo. En consecuencia, desarrollamos nuestro software para que sea tan pequeño, liviano e independiente del hardware para que los fabricantes de automóviles puedan ajustarse en consecuencia y personalizar el modelo de vehículo según sus necesidades.

Además, al apegarnos a los fundamentos y duplicar el aprendizaje profundo y el software de percepción basado en cámaras habilitado para crear un nicho que nos brindó una identidad y una ventaja claras, la percepción basada en cámaras inevitablemente será omnipresente, ya que puede manejar prácticamente todo. Funciones relacionadas con ADAS y AV y eventualmente pueden compensar los inconvenientes inherentes a través del avance en el software.

¿Es 100% posible predecir con precisión todo el comportamiento humano probable en la carretera, incluidas las respuestas potencialmente irracionales en diversas situaciones? ¿Cuál es su opinión sobre la superación de las limitaciones para garantizar una seguridad activa y autónoma?

Junhwan Kim: Creemos que la mayoría del comportamiento humano podrá predecirse a mediano plazo en un entorno/situación cerrados, como un conductor en una cabina o vehículos en una autopista de 4 carriles. La complejidad del entorno y su contexto único serán factores determinantes centrales, pero en espera de la acumulación de datos y el aprendizaje profundo y el desarrollo de IA, la variación del entorno se puede superar con el tiempo.

En una nota inmediata, para garantizar una seguridad activa y autónoma, optimizamos nuestros procesos de desarrollo de software y seguimos estrictos requisitos de seguridad funcional siempre exigidos por la industria automotriz. StradVision adquirió el año pasado el codiciado Automotive SPICE Capability Level 2, que es todo un logro para un desarrollador de software basado en el aprendizaje profundo. También cumplimos con el estándar Guobiao para la cámara frontal en China.

********************************

Anis Uzzaman, socio general y director ejecutivo de Pegasus Tech Ventures, que tiene un enfoque único con un modelo de Venture Capital-as-a-Service (VCaaS) para corporaciones de todo el mundo, se hace eco de las opiniones de Junhwan Kim.

¿Cuál es su opinión sobre la conducción autónoma?

Anis Uzzaman, socio general y director ejecutivo de Pegasus Tech Ventures

Anís Uzzamán: La conducción autónoma es un tema fascinante. Si lo pensamos bien, las personas han estado poniendo su seguridad en manos de los conductores de Uber y los pilotos de aviones a cambio de conveniencia, eficiencia y ahorro de costos. Curiosamente, la cantidad de estados que permiten el despliegue de AV en la vía pública ha ido en aumento, pero la gran mayoría de los estadounidenses aún no confían en los vehículos autónomos y no estarían ansiosos por aprovechar la tecnología incluso si las regulaciones permitieran el despliegue completo en todo el país. Es importante tener en cuenta que el 90% de todas las muertes por accidentes de tránsito son causadas por errores humanos. Por lo tanto, un vehículo programado para conducirse solo puede terminar salvando a decenas de miles de personas que mueren cada año.

Para la mayoría, la tecnología que puede permitir la autonomía e interrumpir el espacio de movilidad ya existe. Con todo eso en mente, no existe una pila de conducción autónoma que sea capaz de superar la toma de decisiones dinámica de los humanos. Si bien las regulaciones con respecto al despliegue de vehículos autónomos son cada vez más favorables, todavía faltan muchos años para que los vehículos autónomos se conviertan en un medio de transporte diario regular, y no anticipamos que se generalicen hasta finales de la década de 2020.