类星频道

类星频道

2021-08-01

耕耘七年,百度 Apollo 手中握着什么?

1,040

作者:孙小树

对于 2013 年即开始布局自动驾驶的百度而言,智能汽车是必须要攻下的阵地。

错过了移动互联网后,百度不会允许自己再错过人工智能,而人工智能商业化落地的最重要的场景之一,便是出行。

竞逐智能汽车市场,百度手中的王牌自然是 2017 年推出的 Apollo 自动驾驶平台,以及基于该平台的「Apollo 智能汽车整体解决方案」。

Apollo Lite

在这之前,百度在自动驾驶领域的商业化落地重点是 AVP(Automated Valet Parking),百度已经就 AVP 和威马、广汽、长城等厂商建立起合作关系。

这其中,威马汽车今年 4 月推出的 W6 已经搭载 HAVP 学习型泊车功能,并将在今年 Q4 通过 OTA 升级 PAVP 高精地图泊车功能,实现非固定场景下的无人驾驶泊车。

今年下半年,百度的重点项目是 ANP (Apollo Navigation Pilot)。辅助领航是近年来的热点技术,各大厂商也均有响应产品,例如特斯拉的 NOA、蔚来的 NOP、小鹏的 NGP 等。

但百度 ANP 的不同在于,百度将 Apollo 长期积累的 L4 级自动驾驶能力降维到 L2+ 级自动驾驶车辆,除了可以支持高速和城市环线场景,还能在城市道路使用。而且,百度 ANP 采用的是纯视觉感知方案。

在去年 12 月的第二届百度 Apollo 生态大会上,百度发布了「Apollo 智能汽车整体解决方案」,其中一大亮点是目前国内唯一的 L4 级纯视觉自动驾驶技术 Apollo Lite,基于 12 个摄像头、12 个毫米波雷达和 4 个角雷达的硬件配置。

向前追溯,Apollo Lite 方案在 2019 年便已公开,几乎是同一时间,自动驾驶感知方分成两个流派:激光雷达 VS 纯视觉。

激光雷达流派以 Waymo、百度 IDG 早期自动驾驶等为代表,重度依赖激光雷达和高精地图。

这种方案的优势是可以直逼限定区域 L4 级别的自动驾驶,快速搭建系统原型,对数据和专业性的依赖相对较弱;劣势是成本相对较高,扩展性相对较差。

纯视觉感知流派以摄像头为主,对传感器和高精地图的依赖较轻,依托数据的积累,通过渐进式的方式,从辅助驾驶逐步切入到自动驾驶能力。

特斯拉已经宣布 2021 年 5 月起,北美制造的 Model 3/Y 不再配备毫米波雷达,进一步向纯视觉进化。

视觉派的优势是成本较低、扩展性较强,劣势是难度较高,主要体现在:

计算量高。10 路摄像头,1080P 的图像,仅进行处理就会产生 1G 的数据,需要设计并行度高、高效率的计算框架。

2D 到 3D 展开困难。图像中获取的 3D 障碍物有天然的被动测距难题,这是计算机视觉里的经典难题,签约数问题。

数据规模大。表观信息非常有歧义性,不同的视角、光照、纹路、颜色都是全新的样本,需要非常大的数据训练规模。

目前坚持视觉感知方案的主要厂商只有三家:百度、Mobileye 和特斯拉。其中特斯拉只做纯视觉,百度和 Mobileye 则是两种路线并行。

百度对于两种路线的看法是,在高级别自动驾驶传感器选型上,激光雷达和摄像头不是排它的,也不是从属的,有各自不可替代的作用。

而关于百度纯视觉感知方案的诞生,百度智能驾驶事业群首席研发架构师王亮给出的解释是,百度为了避免工程师迫于时间压力而过度使用激光雷达等传感器,专门开辟了纯视觉感知路线,以兼顾两种路线的研发。

自动驾驶落地

量产落地是自动驾驶至关重要的一环。量产意味着自动驾驶规模化上路,回收到的数据也会规模化增长,进而反哺 Apollo 平台,形成迭代升级的闭环。

但自动驾驶的落地是个复杂的体系化问题,这涉及到多方协调整合。我们可以把多方势力理解为不同子集,这些子集主要有:

自动驾驶商业公司关注的是自动驾驶算法,关心如何把自动驾驶系统做好,包括感知、规划和控制的全栈算法。

在传统主机厂的眼中,自动驾驶就是被集成进整车电子电气架构里的一个控制器,对线控有要求。

从 Tier-1 的角度,自动驾驶意味着车规级的量产控制器,安全可靠是第一位。

从芯片供应商的角度,自动驾驶意味着高算力芯片,但实际情况是芯片标称算力和自动驾驶功能表现间还存在 gap。

自动驾驶量产落地其实是这些子集的全集。在百度,这个「全集」是 Apollo 的量产化物理实体 ACU( Apollo Computing Unit),负责整合协同自动驾驶的诸多「子集」。

以算力利用为例,百度 ACU 会对自动驾驶算法进行清晰分类,按重要程度依次为:

神经网络、深度学习;

图像处理相关,如 ISP 画质图例、裁剪缩放、拼接融合等传统 GPO 的功能;

传统的计算机视觉处理,传统的 SLAM 不是深度学习功能,但也是一种算法;

没法分得太细的其他,如依赖于数学的行数、矩阵。

自动驾驶公司把算法进行细分,才可让特定的计算加速单元进行特定运算,有效利用算力,减轻芯片压力,推动车规级的量产落地。

百度的 ACU 产品路线规划经历三个平台:Zu5、TDA4 和 Orin-X,进一步分为五代产品:

第一代:Zu5,算力 1.5 TOPS,进行泊车功能相关运算;

第二代:单 TDA4,8 TOPS,实现简单的 ADAS 功能;

第三代:双 TDA4、双 VM,16 TOPS,实现高速场景下 ANP 功能:

第四代:Orin-X, 254 TOPS,实现高速和部分城市工况下的自动驾驶功能;

第五代:双 Orin-X, 500 TOPS,实现全部自动驾驶功能。

智能驾驶云

百度在投身自动驾驶领域的最开始,就开启了对底层基础云平台的建设。

截止目前,百度自动驾驶云端已经积累了千万级别公里数的测试里程数据,这些数据会被场景化归纳,形成场景库体系。这些收集到的数据和构建好的评价体系会在后续研发迭代中,帮助 Apollo 度量调整自动驾驶的资源投入。

基于整体仿真虚拟的云平台,百度智能驾驶云平台还可实现每日百万公里级的仿真测试。基于百度自动驾驶云的业务平台,Apollo 内部能实现周级别的自动驾驶研发迭代能,并通过 OTA 上车做到周级别的版本上车发布。

针对底层自动驾驶云的算力整体纳管,百度的设计包括四个部分:

在底层云平台上进行感知、2D、3D 算法、AutoML 的整体整合;

异构计算资源,包括 CPU、GPU、FPGA;

通过数据平台把海量数据做整体纳管,并且支持数据挖掘;

提供语义级、Case 级的场景纳存。

通过百度智能驾驶云平台,百度可以具备数据闭环、效果闭环和商业闭环的能力,并最终体现在快速研发、快速验证和快速迭代能力上。

智能座舱

除开智能驾驶,汽车智能化的另一主要应用场景是智能座舱,其对车载用户体验施加的影响愈加明显,百度希望在人性化和连接广度上提升用户体验。

人性化方面,百度希望通过推出个人虚拟助理角色,使用户和车的连接更自然。用户通过上传照片,直接生成自己的 3D 虚拟形象,照片可以是自己,爱人,孩子,甚至是宠物。通过 2D 影像资料生成 3D 虚拟形象,这和苹果、Facebook 的玩法很相似。

同时,百度还允许用户录制 20 段录音来制作个性化的语音包,进一步丰富虚拟助理的形象。

连接广度方面,百度智能座舱将从单模语音文本理解上升到图像语音结合的多模理解,并利用搜索业务积累和百度百科、知道、视频、问答等产品资源,打造百科全书式的语音助手。

例如当用户带着孩子开车路过一幢风格独特的房屋建筑时,宝宝可以询问语音助手:这边的房子很好看,它叫什么呀?百度语音助手会通过连接云端,予以回答,而其他厂商的语音助手实现不了类似功能。

并且,百度语音助手的升级是通过云端做下发和分发的,不依赖于端上的 OTA 升级。

通过和搜索的打通,以及在声纹识别、离在线、多语言、多场景全双工、情绪识别、情绪合成点上的突破,百度智能座舱还将具备语义拒识能力,区别车内指令和不相关的无效沟通。

结语

百度是自动驾驶领域的先行者,目前 L4 测试里程突破 1300 万公里,在全国的 27 个城市开展了自动驾驶测试,其中在 4 个城市进行了共享无人车的运营,并已在北京实现了主驾无人自动驾驶的商业化运营。

百度在智驾、智云、智舱等方面实力其实毋庸置疑。对百度而言,首要的任务其实是将这些能力量产落地,推动 Apollo 自动驾驶解决方案快速迭代。

本文著作权归作者所有,并授权 42 号车库独家使用,未经 42 号车库许可,不得转载使用。
Comment · 0
Owner: 0
Sort by like

Upload
大胆发表你的想法~
5
Comment