作者: 德卤
最近自动驾驶行业有两件比较有意思的事,一个是搭载大疆车载灵犀智驾系统的首款量产车 KiWi 正式上市;另一个则是自动驾驶公司 MAXIEYE(智驾科技)的 MAXIPILOT 平台下基于单 TDA4 的行泊一体系统也要量产了。
为什么比较有意思呢?
因为这两套系统有两个共同的特点,一个是目前的量产版都是兼顾性价比满足大众消费市场的产品;第二个是都叫「行泊一体」辅助驾驶方案。
第一点比较好理解,2022 年智能驾驶行业是两种现象并行的状态,以特斯拉、蔚小理、华为为主的自研派,在努力实现高阶辅助驾驶的「进城」;大众价位汽车在加快 L2 级别的方案上车,而这类车型又占据着汽车市场 80% 的比例,因此,L2 到支持高速领航级别的辅助驾驶正在形成规模化。
这就在中低端车型市场产生了一个巨大的需求,而中低端车型对于辅助驾驶有两个核心关键词:「低成本」、「高可靠」。
在此基础上进阶的高性价比「行泊一体」方案的到来似乎也给主机厂带来了一缕春风。
而如何低成本、高效率地获取车辆大规模上路行驶过程中的高质量、高价值数据,用以迭代技术,开始成为各玩家之间实力比拼的焦点,我们发现 MAXIEYE 这家公司确实值得多聊聊。
因此,我们梳理了几个问题,展开聊聊:
-
什么是「行泊一体」方案?
-
MAXIEYE 在乘用车里能够提供什么独特的方案?
-
基于 TDA4 去做行泊一体方案的难点在哪?
-
方案走向前装量产,MAXIEYE 在技术上有什么特点?
「行泊一体」的战争已经打响
在讲「行泊一体」方案之前,要先来聊聊智能驾驶行业的一些现状。

先看一组数据:
-
2022 年 1 - 6 月,中国高级别辅助驾驶的前装搭载率是 26.64%(L2/2.5 功能具备向上升级的);
-
2022 年 1 - 7 月,中国市场乘用车全品类车型,功能达到基础 L2 的辅助驾驶普及率为 22%;
-
2022 年 1 - 7 月,L2 级智能辅助驾驶标配搭载上险 283.89 万辆,同比增长接近 70%,同时车型的价格区间平均在 15 - 20 万之间。
这组数据说明了一个问题:市场对 L2/2.5 级别的辅助驾驶需求更加迫切。
但在智能化的行车部分,除特斯拉、理想、小鹏三家为系统自研,硬件来自第三方供应商外(特斯拉硬件也自研),其余排在前十的供应商仍为传统外资 Tier 1,其中,电装、博世、采埃孚排名前三位。
目前由 Tier 1 提供的主流单目 ADAS 方案中,Mobileye 依托其高性能产品方案主攻中高端市场,博世则以低成本抢占市场,在国内市场表现不错,但有下降趋势。
原因在于,Mobileye 和博世虽然都有很强的工程化能力,但 Mobileye 在一直是黑盒交付的封闭方案,并且不开放视觉感知算法,车企对产品可以定义的部分很少,所以逐渐被放弃了使用。博世的方案优势是「标准化」,可以最大节省开发成本,装载就用;劣势其实也是「标准化」,智能驾驶系统是一套需要更新的系统,博世很难和众多客户一起去迭代系统能力。
这是辅助驾驶第一个痛点:一套具有「开放性」,且可以「持续迭代」的系统。
而市场的另一个极端则是,以华为、百度、小马智行等为核心研究 L4 的企业,虽然系统能够覆盖的场景多,系统的应用更加高阶,但常规十几颗摄像头、5 颗毫米波雷达、12 颗超声波,外加多颗激光雷达,再加上一块数百到数千 TOPS 算力芯片,整个系统的硬件成本最低都要达到 2 - 3 万元,且最终实现的还是驾驶辅助,并不能完全符合行业的 L4 标准。
显然,这对于大众消费市场来说很难接受,这就有了第二个痛点:一套极具「性价比」的系统。
为什么要说上面这些?
简单说就是,在巨大的市场需求下,谁能够提供一套「低成本」、「性能强」、「高开放性」的系统,谁将有机会吃下更多的市场份额。
这和「行泊一体」方案有什么关系?
我们都知道自动驾驶在技术上,有一个行业共识的目标:用一套系统架构驱动整个车辆的自动化。
所以技术架构上要向基于中央计算的集成化架构升级。但问题在于,这需要一个过程,它需要基础产业技术的协同进步,比如大模型的神经网络算法、精度更高的感知传感器、大算力计算平台等。而这个逐渐升级技术的过程行业里有一个叫法 ——「渐进式」自动驾驶路线。
简单理解就是,用现有的技术解决当前的问题,同时快速迭代实现对高阶功能的量产。
现在的自动驾驶系统,从技术层去看还是大有不同,这里面还是多套系统以及多套硬件并行的状态。
比如,硬件上虽然已经向域控架构集成,但现在多数车企还是拥有 3 - 4 个域控器,而且行车和泊车都需要不同的芯片去驱动;软件上还是高阶领航辅助驾驶一套,高精地图断点后降级到 L2 又是一套,同时泊车系统还是一套,而且多数方案还都是不同供应商来做。
结果就是,车辆在功能层实现了统一,同时具备行车、泊车的能力,但技术架构依然不是最优解,供应商以及主机厂的硬件成本和开发成本依然不低。
怎么解决呢?
一句话就是:再集成。
这就说到了「行泊一体」方案,行业第一阶段的做法是,不同芯片处理行车和泊车;第二阶段的做法是硬件上将行车和泊车的芯片集成到一个控制器,里面跑两套算法。
目前普遍处于第二阶段,这种形式上的行泊一体并不能真正实现硬件性能的极致挖掘,对于车厂而言硬件成本也并没有降低,目前行业中更多的是多芯片拼盘的方案,比如 Eye Q4 + TDA4、J3 + TDA4、双 TDA4(大疆灵犀智驾) 、 Eye Q4 + S32V(蔚来 866)等。
而第三阶段则是,用一颗芯片写入行车和泊车算法。并在底层软件、传感器复用性等维度上不断升级,实现高性价比、高集成度的行泊一体解决方案。
行泊一体方案的核心是:「降低成本」和「简化技术架构」。
这样做的方式有几个优点:
-
硬件数量减少,降低硬件成本,降低开发成本。
-
统一适配一个芯片,可以提高系统的运行效率,达到性能优化的目的。
-
因为简化了技术架构,涉及到的供应商少了后,可以提高标准化能力。
这就是为什么,地平线、大疆、智行者等都有行泊一体方案规划,而且接下来这个领域的竞争只会越来越激烈。
还有一个问题是,两套算法对于芯片算力的要求会更高,如果需要用一颗 Orin 这样的大算力芯片其实成本并没有降低,如果想基于单 J3、S32V、TDA4 去做那就需要在算法上极致压榨。
我们了解到 MAXIEYE 的做法是,在嵌入式软件层面下功夫将算法与芯片的运行效率提高,并且比较快的做到量产状态。
MAXIEYE 凭什么?
在聊这个技术之前,依旧介绍一下这家公司,MAXIEYE(中文名:智驾科技),是智能驾驶和智慧出行领域的全栈创新及系统方案服务商。
它们的主要产品则是,辅助驾驶(ADAS)和自动驾驶(ADS)系统产品及解决方案,可以覆盖 L0 - L4 技术和服务闭环。
根据 MAXIEYE 的产品规划可以看到,按系统版本可分为三个:
一,MAXIPILOT 1.0 以及 MAXIPILOT 1.0 PLUS
这套系统采用的是安霸的 CV2 系列芯片,感知硬件上可以从 1R1V - 5R1V 根据车型需求自由裁切,可实现 NOM 高速场景领航辅助驾驶。
二,MAXIPILOT 2.0 以及 MAXIPILOT 2.0 PLUS
这个版本 MAXIEYE 就已经对系统进行了集成设计,其中 MAXIPILOT 2.0 采用一颗 TDA4 就可实现行泊一体,功能上可以达到 NOA ,感知硬件可以做到 5R5V1D,预计量产时间会在 2023 年。
而 MAXIPILOT 2.0 PLUS 基于 50 TOPS 级别的芯片,同时会部署 BEV 大模型的算法,可实现 AEB/FCW/LDW/LKA/TSR/IHBC/ACC/ICA/TJA/ALC/NOM/AVP 等一系列智能驾驶功能和行泊一体方案。
三,MAXIPILOT 3.0
这个版本会基于 100+Tops 算力平台开发,支持 5R11V3L 融合感知硬件,可以实现含城市领航辅助驾驶的行泊一体方案。
MAXIEYE 马上要量产的基础版行泊一体将搭载 MAXIPILOT 2.0 系统,这套系统的特点是基于一颗 TDA4 VM 而设计。目前,TDA4 芯片有几个版本(来自 TI 官方资料):
-
TDA4 VL:算力 4 TOPS
-
TDA4 VM:算力 8 TOPS
-
TDA4 VH:算力 32 TOPS
MAXIEYE 用的是 TDA4 VM 。
行业中也知道,虽然这款芯片的算力已经达到了 8 TOPS,但因为 TDA4 芯片原来是给座舱用的芯片,所以即使这款芯片是个成熟的方案,但实际在行车开发应用的过程中,可用的算力会有所受限,就会出现对数据流处理和任务分配拥堵的情况。
简单说就是,会消耗大量算力在一些边缘化的数据处理任务上,这就会影响系统核心功能的检测性能,比如对视觉感知信息的漏检。所以虽然众多的自动驾驶解决方案公司,都基于 TDA4 芯片开发行泊一体方案,但最终能量产的始终停留在泊车方案,行车上能用好的不多。

因此,想用可以,但你必须拥有一套更为独特的算法能力,这就要说说 MAXIEYE 提到的嵌入式软件技术,为此我们还专门请教了 MAXIEYE 的软件专家。
MAXIEYE 嵌入式软件解决什么?
要知道 MAXIEYE 嵌入式软件解决什么,就要先知道有什么问题需要解决。
因为成本,体积,能耗等方面的原因,一般很难把深度学习训练时候使用的 GPU 或者集群式训练中心搬到一辆汽车上。所以只能把这些算法、软件部署到一些成本、体积、功耗都大幅降低的,带深度学习推理加速的,嵌入式 SOC 芯片中。
也正因为成本,体积,功耗等原因,也决定了这些嵌入式芯片的算力,内存带宽,内存大小等资源方面都非常的有限。尤其是在 1R1V 和 5R5V 之间的一些 L2 或者 L2+ 的辅助驾驶产品上这种资源的紧缺显得尤为突出。
两个原因:
-
深度学习算法工程师在训练的时候为了达到优秀的效果,一开始是很难顾及到训练端到部署端这么大算力悬殊差距的限制。这给嵌入式芯片的深度学习网络部署工程师保留深度学习网络的优秀效果提出了很大的挑战。
-
辅助驾驶关系到车控,这就要求辅助驾驶产品中的嵌入式软件具有非常强的稳定性和快速响应能力。
稳定性有两个方面的表现:一,产品中的软件在达到产品宣称的功能和功能指标的情况下不能死机,哪怕车辆连续开几天也不能死机;二,产品的功能指标不能时好时坏,表现要始终如一。
而快速响应能力是指连接到产品的摄像头等传感器的目标识别时延要小。如果产品里面的嵌入式软件对目标的识别时延较大,此时车速过快,就会产生车控执行命令的延迟,这很容易发生危险。
所以,保留优秀的算法效果,保持产品的高度稳定性和快速的响应,是辅助驾驶产品中嵌入式能力的重要挑战和体现。
主机厂之所以选择 TDA4 VM 这颗芯片,
-
TI 在车规级芯片供应的传统供应商里,有绝对的研发经验,用起来比较容易上手。
-
车厂的项目评估周期都比较长,而在早期评估时车规级小算力芯片中带 GPU 的很少,而环视泊车功能中的图像拼接、渲染都需要 GPU 效果才能做的比较好,TI 满足。
-
TDA4 VM 是多核异构的,本身自带 ISP 和片内物理隔离还能双核锁步的 MCU,这样不但可以在系统硬件上减少外置 ISP 和一块车规级 ASIL D MCU 的成本,还可以应对这几年车规 MCU 的保供问题。
TDA4 VM 优点明显,缺点依然明显,除了前面提到的实际算力较小以外,还有一些其它方面劣势,为次我们请教了某新造车品牌的自动驾驶负责人,得到一些信息。
在深度学习算法部署方面
某车企算法负责人对我说:
TI 其官方提供的深度学习推理加速工具链 TIDL 的深度学习算子支持不足,仅支持 20 多种较为基本的算子,就这些基本算子很多使用限制也较大,如 softmax、sigmoid、Inner Product 等,只支持一维输入输出。
另外如 reshape、scale 等算子,不支持在网络中独立使用,这些都限制了网络结构和模型设计。对我们的深度学习算法工程师设计的一些效果很好的私有算子就更加不友好了。
因为我们评估过国内外很多款带深度学习推理加速的 ADAS 嵌入式 芯片。
我们发现 TDA4 VM 在嵌入式端深度学习推理加速的一些主流特性支持做得不是很完善,其没有对深度学习稀疏化的加速支持,全靠硬算。
而那些对随机或者结构化稀疏支持的比较好的芯片,其推理效率在网络稀疏化做的比较好的情况下相比硬算能提高好几倍。
其对批处理、混合精度定点化做的也很不好用,还经常出错。
软件 SDK 方面
TDA4 VM 采用的是基于 Open VX 的一套软件架构,而 Open VX 采用的是一种基于节点的有向无环图处理方式(DAG)。
这种方式在现在很多辅助驾驶软件中都有采用,特别是 TDA4 VM 这种多核异构,有很多协处理器的大型芯片,每个核上都有自己的操作系统,有的核运行 RTOS,有的核运行 Linux 或者 QNX,有的 MCU 上还运行了 AUTOSAR 系统,Open VX 这种架构本身能够起到屏蔽硬件操作细节,从而让软件工程师更加关注于自己的业务逻辑的目的。
但凡有所能必有所不能,我们发现在 TDA4 VM 的 Open VX 实现中很多时候节点与节点之间通信时延开销比较大,特别是跨核的时候,经常能到 3 - 4 毫秒。
这里面有个小知识就是,摄像头的帧率是 30 帧每秒,也就是每帧图像的处理时间也就是 33 毫秒,如果在这 33 毫秒时间内图像的算法没处理完,下一帧图像就来了,如此反复很快系统就会宕机。
而这 33 毫秒里面如果被节点之间通信就占去了 10%,就太不值得了。
感知处理链条时延较长
辅助驾驶产品中一个摄像头的深度学习感知处理由以下几个环节组成:图像的 ISP 处理 > 畸变矫正处理 > 裁剪缩放拼接处理 > 深度学习网络输入 padding 处理 > 深度学习网络推理 > 深度学习网络后处理 > 感知目标跟踪处理 > 多传感器感知目标融合 > 规划控制车辆运行。
TDA4 VM 多核异构,感知图像的 ISP,畸变矫正,裁剪缩放等前处理都有专门的硬件协处理器,但面对众多深度学习网络的不同需求,各个协处理器的能力还是显的捉襟见肘,导致每一步处理时延都较长。
也就是,TDA4 VM 各个协处理器有限的处理能力导致感知处理链条时延较长,这些都对单 TDA4 行泊一体产品提出巨大挑战,当我们将这些问题丢给 MAXIEYE 软件总监郑朝辉时,他回答的很实在,让我颇有些意外。
郑朝辉表示,这些问题确实存在,而且这不是提出一两个方法能够带来结果的,而是要有一套系统的方法论,就是用 “实事求是” 的态度去挖掘这些问题根本原因,就像华罗庚所说 “善于退,足够地退,退到最原始而不失去重要性的地方”,然后再用 “创新” 去解决问题。
MAXIEYE 的做法是,在软件框架上面,对于 部分重要跨核通信,他们放弃了 TDA4 VM 设定的 Open VX 基于节点的通信方式。
他们在应用层之下的系统中间层找到了一种跨核通信硬件机制,然后自己写了一套 C/S 通信方式,这种处理方式能让多个深度学习网络的处理和其后处理高度并行,大大提高效率并降低感知目标的处理时延。
重要的是他们还自研了 SOA 架构中间件。
据郑朝辉表示,“我们其实不光做了系统的应用层,我们还自研了部分中间件,而且这套中间件我们在安霸平台上经过了两代几十万套产品的验证,传输带宽大,高效稳定,并且其基于订阅分发的协作机制让各个算法和软件工程师的开发耦合很轻,从而保证了整个系统整合和迭代变得快速和高效。”
这上面一段话可能比较难理解,简单解释一下:
在自动驾驶系统这整个方案里,软硬件之间的关系是,芯片厂商提供硬件以及跑在硬件上的基础内核,而自动驾驶系统通常是最高一层应用层,但在应用层和内核层之间,其实还有一座桥那就是中间件,有了中间件也就保证了这块芯片是一块谁都可以用的通用芯片了,主机厂或方案公司只需要做应用层的开发就好。
而中间件除了是一座桥,连接软硬件,它还是数据调度和算力分配以及跨核通信的中枢,而整个传感器过来的数据要经过中间件这层,如果用第三方中间件,数据调度可能不那么高效准确。
MAXIEYE 的优势在于,他们研发了底层操作系统级别,可以实时对自己的数据进行调度和分流,结果则是,不仅可以有效利用算力,还可以进行针对性训练。
写在最后
从市场角度来看,「行泊一体方案」真正的竞争其实才刚开始,大疆已经率先量产,MAXIEYE 紧跟其后,所以都具有一定的先发优势。区别在于,MAXIEYE 是基于单 TDA4 VM 上线了 L2++ 的能力,大疆依然是双 TDA4 VM。
在这个级别的方案上,非常考验厂商对于成本的控制和性能的保持。
所以,谁能控制成本给出一套满足功能需求的系统,并且具有量产的先发能力,谁将有可能领跑对手,MAXIEYE 和大疆有这潜力。