汽车电子与软件

汽车电子与软件

2021-06-17

Subscription

黑芝麻自动驾驶 AI 芯片介绍

  1. 自动驾驶
2,324

作者:风雨辰

本文从黑芝麻 AI 芯片研发布局、芯片自主可控核心 IP、自动驾驶计算平台应用、工具链等几个方面介绍,让大家了解黑芝麻智能在芯片架构、芯片核心竞争力方面的发展情况。

黑芝麻智能成立于 2016 年,主要做 Support L2 + 及以上的自动驾驶计算芯片。核心团队均来自于芯片公司,因此黑芝麻智能的强项在于做硬件,做 IP。作为初创公司,短短几年内,黑芝麻已经拥有自研核心 IP,并且在车规级和可靠性方面有深入研究,能够满足客户开发需求,与此同时公司也能提供配套的工具链和软件算法。

传统汽车到自动驾驶时代的演变带来社会核心生产力的变革

汽车和行业的变革对于行业来说既是挑战更是机遇,面对未来智能化和网联化的发展,核心芯片、电子电器架构、人工智能算法等成为主流,但最终的大数据和人工智能的发展将会对社会变革带来深远影响。

从 Waymo 开始,自动驾驶的商业化应用已经发展了 10 年了,大家也逐渐认识到这不是一个一蹴而就的事情,也不是根据 SAE 的分级标准从一个 Level 跨到另一个 Level 就算成功了,而是需要产业协同,也有对不同实现路径的探索。目前业内以 L3 为分界线,主要有两条实现路径。

一种是自下而上,从 L1 发展到 L3,对于乘用车商用车的商业化来说,供应商提供 L1、L2 或 L3 智能化模块化的产品给主机厂,主机厂进行智能化模块部署,然后通过从消费者收集反馈信息用于产品革新和优化升级,这是自动驾驶行业化落地的一个主要方向。

另一个方向是以高科技公司为代表,如 Wamo、滴滴等,他们走的是从上往下的道路,直接从无人车的限定区域运营开始,也就是 L4 级无人驾驶往下走,包括 Robotaxi、无人巴士、无人物流等。

虽然两条路线不一样,但是其核心还是在于整个行业的整合、人工智能和车路协同技术的发展。

整车电子电气架构从分布式向集中式演进推动自动驾驶超算平台的发展

电子电气架构 EA 的发展,从分布式到集中式到域控制器架构以及中央计算平台架构,总体来说就是集中功能减少个数优化线束,但是这带来的问题就是单个芯片上所承载的功能会大幅度的增加,包括算力、数据吞吐、多级连接等等。

目前 ADAS 无论是 AEB、ACC 还是 APA,对于域控制器来说都是一个低速和高速分时复用的状态,整体而言芯片的算力偏低,大概是≤10Tops,整个芯片可运行的神经网络或人工智能算法以轻量化网络项目为主,同时整体的功能安全等级偏低,大多为 ASIL-B。

这样的硬件和芯片状态无法满足未来对于中央计算平台的支持,因此对于整体硬件提出了更高的要求,需要芯片做到大算力高可靠性低时延。

黑芝麻智能的车规级大算力芯片

行业内知名的 SOC 厂家有 NVIDIA、高通、Mobileye 等,并且在某一领域均有所长。做芯片是一个很复杂的过程,无论是技术架构还是工艺制程,都需要时间与经验的积累。目前很多公司的芯片 IP 是通过找第三方通用 IP,而对于黑芝麻而言,我们深刻认识到整个 IP 配置的复杂性与重要性,追求算力是一方面,更重要的是利用率。

SOC 芯片多为异构设计,包含 GPU、NPU 和 CPU 等不同的运算 IP,所以在芯片设计中异构 IP 配置非常重要。配置 IP 并不是把算力越做越高就好,还涉及到整个芯片的设计和验证,像带宽、外设、内存等方面都要兼顾。而且,芯片内部的处理是有数据流的,在设计验证过程,需要根据数据流和吞吐量调优,实现在每一个运算步骤上做硬件优化。

黑芝麻的 IP 设计以需求为主导,预期设想应用场景以及在该场景下对应的传感器处理数目、算法和功能复杂性等问题,因此来确定 IP 配置,然后进行功耗和安全性设计。黑芝麻从一开始就引入了车规级和功能安全全流程设计的概念,确保芯片本身符合车规级的严苛标准。

黑芝麻在整体的 IP 设计中,结合先进工艺制程,采用了一些能够降低功耗的模式;在设计验证方面,黑芝麻充分考量外设带宽和内存配置,以数据传输和吞吐量来验证,以此来优化配置。在车规级和功能安全优先保障的前提下,为后续产品迭代打下良好基础。

黑芝麻目前这一代的芯片是 A1000,采用 16 nm 工艺,整体芯片是 ASIL-B 级,可实现 ASIL-D 级安全岛;用于 AI 计算的部分基于黑芝麻完全自研的 NPU,算力可以达到 40 Tops。

今年上海车展,黑芝麻发布了新一代的 A1000pro 也是基于 16nm 工艺,但是算力将达到 106Tops,功能安全设计和安全岛沿用 A1000 设计,预计今年 Q3 可以拿到工程样片。

黑芝麻 SOC 芯片产品路线图

参考下面表格可以看到黑芝麻的 SOC 和 NVIDIA、Mobileye 等产品的对比。作为初创公司,黑芝麻有自己的自研的 IP,在 NPU 的设计方面完全基于神经网络,能效方面是优于 NVIDIA 的。

黑芝麻智能的两大核心竞争优势:NeuralIQ ISP 和 DynamAI NN

一是自主可控核心 IP 构建核心竞争优势:NeuralIQ ISP

作为黑芝麻的两大核心 IP 之一,ISP 的 IP 显得尤为重要,因为 ISP 对于图像处理来说非常重要,如武钰女士介绍,图像数据在给到神经网络之前如果没有调到最佳的状态,是很难靠后端的检测处理达到要求的,因此黑芝麻在 ISP 方面大量投入并且在国内基本做到无出其右,如下图,对于每个 MIPI 的 Block 都会对应一个 Pipeline,Pipeline 里面有一个非常清晰的 ISP 的开发流程,包括去噪高动态调光还有一些白平衡,每一个部分都有相应的软件团队在做优化和调用。NeuralIQ ISP 可以让摄像头在雨雪天气或者昏暗光线下高清成像更有优势。

二是自主可控核心 IP 构建核心竞争优势:DynamAI NN 引擎

DynamAI NN 引擎作为高性能深度神经网络算法平台,核心在于 4 颗 4K 卷积运算阵列,它能够提供神经网络上的典型卷积层运算,可以把神经网络全部都有单独一个 NPU 来处理,这取决于黑芝麻采用最新的软件和算法来做硬核加速和 IP 设计,其好处在于对客户来说,提高了算法配置的灵活性,并且基于 ISP 和 NPU 的结合,能够对图像和神经网络的处理达到最优效果。

自动驾驶计算平台和完整 AI 开发工具链

黑芝麻提供了一个开放的 FAD 自动驾驶计算平台,通过 A1000 芯片双芯或者四芯级联的方式,根据客户应用和整个算法的需求来选择,便于客户更快的实现算法和应用的验证。

除此之外,黑芝麻也提供了配套的 DSP 和 SDK,更进一步而言,黑芝麻提供了一套完整的 AI 算法开发工具链 ——「山海」 人工智能工具平台。山海人工智能工具平台分成 4 个部分:

第一部分提供了 50 种神经网络参考模型,基于不同的视觉应用,比如目标识别、小物体识别和语义分割,我们都会有推荐的神经网络模型;

第二部分是人工智能训练框架,客户之前如果是用 TensorFlow、pytorch 或者 Caffe 训练出来的神经网络类型,可以采用黑芝麻提供的工具来实现框架转化,便于进行后续的开发和操作;

第三部分是具体工具类型,包括量化、组图分割、剪裁等等;同时支持客户自带的工具链,基于这些操作来实现将训练好的网络生成可在嵌入式系统上部署的参数和可执行的代码。

第四部分是部署范围,包括芯片、单板和 FAD 开发平台等。

自动驾驶行业的发展,高算力 SOC 是核心基础,硬件算力的提升,才能满足传感器配置的提高和软件算法的迭代需求,黑芝麻基于自研的核心 IP:ISP 和 NPU,采用最先进的神经网络和软件算法推动芯片的优化革新,并且基于完整的工具链帮助客户快速实现算法验证和应用部署。据悉,今年将会有多款搭载黑芝麻智能大算力车规芯片的车型量产,黑芝麻车规级和高安全等级芯片为客户产品量产落地提供保障。

本文著作权归作者所有,并授权 42 号车库独家使用,未经 42 号车库许可,不得转载使用。
Comment · 0
Owner: 0
Sort by like

Upload
大胆发表你的想法~
20
Comment