1. 智能驾驶是特斯拉的核心壁垒之一
作为智能驾驶的标杆,特斯拉市值冠绝全球主机厂。特斯拉是目前世界 上市值第 6 高的公司,同时也是市值最高的车企。横向比较来看,2022 年特斯拉汽车销量 93.62 万台,不及丰田的 1/10,而它的市值却是丰田 的 3 倍。究其原因,在三电系统、供应链管理、生产模式、智能驾驶、 战略规划、营销模式等方面,它都是行业颠覆者,是标杆一样的存在。
特斯拉是目前唯一一家自动驾驶全栈自研并实现量产落地的主机厂。消 费者购买特斯拉的原因有很多,除了三电系统、方便的充电体验、高保 值率、品牌影响力,其智能驾驶能力是重要的考虑因素之一。这份报告 主要是特斯拉自动驾驶能力的进一步解析。通过研究我们发现,在自动驾驶领域,特斯拉面临过跨越式与 渐进式选择,经历了从依靠外部技术到自研芯片和全栈自研实现 FSD 的 摸索过程;硬件配置上,也从依赖摄像头、超声波雷达、毫米波雷达到 抛弃各种雷达甚至降低摄像头配置等几个阶段(中间也曾尝试过激光雷 达)。特斯拉走过的路,国内想实现智能驾驶全栈自主可控的厂商或许 都将经历。当前,国内头部科技实力强的主机厂城市场景的 NOA 已进 入落地试点阶段,从场景上看,与特斯拉存在 5 年左右的差距,故在这 时候回溯特斯拉自动驾驶成王之路,以启读者。
2. 特斯拉智能驾驶经历了漫长的进化过程
特斯拉研发智能驾驶系统可追溯至 2013 年。2013 年 9 月,马斯克在推 特披露特斯拉正在研发其辅助驾驶系统 AP(Autopilot System)。特斯拉 早期曾与 Google 合作半自动驾驶系统 Autopilot,后来叫停,主要原因 是 Google 认为半自动驾驶系统不可靠,现任 Google Waymo CEO John Krafcik 解释称“当你把这个系统开发得越好,人们就越容易过度信赖它”。 后来 Google 转向研发 L4~L5 级别的自动驾驶,特斯拉转而开发第一代 AP。
作为车载 OTA 鼻祖, 特斯拉在设计智能驾驶功能时遵循硬件先行、软 件升级的方式。与视觉处理芯片独角兽 Mobileye 合作,特斯拉在 2014 年 10 月正式向公众推出其 HW 1.0(Autopilot Hardware 的简写,特斯拉 的自动驾驶电脑),其组成包括:1)1 个前置单目摄像头(Mobileye), 2)1 个 77G Hz 毫米波雷达,最大探测距离 160 米(Bosch),3)12 个 超声波传感器,最大探测距离 5 米,4)Mobileye EyeQ3 计算平台,5) 高精度电子辅助制动和转向系统。HW 1.0 仅在 Model S 和 Model X 上提 供。在未来一年多的时间里,车辆通过 OTA 不断更新固件,获得更完 善的驾驶辅助或自动驾驶功能。需要进行区分的是,HW 是特斯拉车载 自动驾驶电脑,是硬件;AP 是 Autopilot 辅助驾驶系统,是软件。这两 个概念不能混淆,因为硬件是先装机的,有了硬件支持后,辅助驾驶体 验主要依赖软件,是真正的大脑,而软件是逐渐升级的。
特斯拉的智能驾驶研发是一个逐渐“抛弃拐杖”的过程。HW1.0 依赖Mobileye 的技术;HW2.0 时代是英伟达的 CPU 叠加特斯拉自研软件, 同期车端 FSD 芯片也在酝酿当中;2019 年 4 月搭载两颗 FSD 芯片的 HW3.0 上车标志着特斯拉智能驾驶技术正式迈入全栈自研的时代。 HW1.0 中的芯片和核心技术都来自 Mobileye。2016 年 7 月,由于数据 所有权和公司文化的冲突,Mobileye 宣布 EyeQ3 是它和特斯拉的最后一 次合作。实际上,早在 2015 年 4 月,特斯拉就组建了基于视觉感知的 软件算法小组 Vision,准备自研软件逐步替代 Mobileye。 2016 年 10 月,特斯拉推出 HW2.0,这套方案基于英伟达的 Drive PX2, 由两个公司联合开发。HW2.0 相较于 HW1.0 在性能上实现了大幅提升, 摄像头由 2 个增加至 8 个,处理器算力提升为 12TPOS,为 HW1.0 的 48 倍。由于 HW2.0 的软件系统 AP2.0 是特斯拉自行研发的,起初辅助驾驶 使用体验(8.0 版本)不够成熟。2017 年 3 月 29 日,特斯拉推送了 8.1 版本软件更新,AP 2.0 的性能逐渐开始追平 AP1.0。2017 年 8 月,特斯 拉为 HW2.0 进行了一次小幅更新,被业内称为 HW2.5。HW2.5 为 Autopilot 系统提供了更强的算力,增加了系统的冗余性和可靠性,为实 现自动驾驶打好了硬件基础。软件上,2018 年 10 月,特斯拉推送 AP9.0, 此版本基本实现了对高速/城际公路这种简单场景的自动驾驶,这项功能 被视作是 L4 最早期的形态。
HW3.0 中的 FSD 芯片是特斯拉专门为自动驾驶打造,与特斯拉车型强 耦合,让特斯拉拥有了对其产品的完全掌控权。一方面可以充分利用计 算单元、高效迭代产品,另一方面成本也更加可控。在研发 HW2.0 的同 时,特斯拉内部也启动了 FSD 芯片的研发。他们认为 Drive PX 主要基 于通用的 GPU 架构,并不是专门为无人驾驶系统打造,还有一定的优 化空间来提升运算速度。2017 年 8 月,FSD 芯片测试完成。2019 年 4 月,FSD 芯片正式在 Model3 上应用。 FSD 芯片主要由 CPU、GPU 和 NNA(Neural Network Accelerator)三 个计算模块,以及各种接口,片上网络等组成。算力上,每秒可处理图 片 2300 张,较 HW 2.5 的每秒 110 张的处理能力提升了 21 倍。由于该 芯片只针对特斯拉车型设计,所以设计时将NNA的许多通用功能从FSD 芯片上剥离,只保留特斯拉需要的硬件,成本相对于 HW 2.5 下降 20%。 特斯拉可以在 FSD 芯片上打造自己需要的方法,比如编译器,以更高效 地利用各个运算单元(这个在第三节会有更好的感知)。整个 FSD Computer(和 HW3.0 同义)上布置了两个完全独立的 FSD 芯片,及各 自电源系统、DRAM 和闪存,可以实现完全冗余。在实际行车过程中, 两颗芯片同时对相同的传感器数据进行独立分析,并对结果进行平衡、 仲裁和验证,提高自动驾驶的安全性。FSD Computer 在设计上与 HW2.0 的传感器、线控参数、I/O、尺寸等保持一起,特斯拉已承诺为所有选配 FSD 包的 HW2.0 和 HW2.5 用户免费升级到 FSD Computer。
至此,特斯拉拥有了算力强大的 FSD 芯片和源源不断生成的车队数据, 具备通过 AP 算法的升级实现自动驾驶的理论可能性。2019 年 FSD 芯片 上车以后,AP 算法飞速迭代,我们将在下一章节详细介绍。
3. FSD:特斯拉智能驾驶的关键一跃
2021 年 7 月 10 日,特斯拉正式向约 2000 名美国用户推送了“完全自动 驾驶”FSD Beta V9 版本,其独特之处在于摒弃了毫米波雷达、超声波 雷达等传感器,采用纯视觉的自动驾驶方案。本章将从 FSD 的含义、演 进过程、现状出发探究特斯拉在智能驾驶领域的进展和贡献。
3.1. 特斯拉的智能驾驶包分为三个类别
特斯拉的智能驾驶包分三个类别,AP 是特斯拉车型标配,FSD 是顶配: AP(Autopilot):最基础版本,免费&标配; EAP(Enhanced Autopilot):增强辅助驾驶,在基础版的基础上增加 了智能召唤、自动泊车、自动变道、自动导航驾驶(NOA)等功能, 目前中国区售价 3.2 万元。 FSD:主要功能包括导航辅助驾驶(NOA)、自动变道、自动泊车、 智能召唤、交通信号识别、(基于导航路线的)城市道路自动转向 等,目前仅在北美地区有 Beta 版,美国售价 1.5 万美元/加拿大售价 1.75 万美元(现在可以申请一个月的试用权)。除了收费之外,装 Beta 版的客户需要安全得分超过 80 且驾驶里程超过 100 英里。2021 年 7 月 10 日,特斯拉正式向约 2000 名美国用户推送了“完全自动驾 驶”FSD Beta V9 版本,根据公司在 2022 年 Q3 业绩交流会上的披露, FSD Beta 在 2022 年 9 月测试用户扩大到 16 万。自 2021 年以来 FSD Beta 实现了 36 次新版本推送,目前最新版本是在 2022 年 11 月 1 日发布的 FSD Beta 10.69.3。
FSD 在能力上向 L4 发展,但在归责上仍遵循 L2 的方式。
按照目前受到广泛认可的国际自动机工程师学会(SAE)的定义, L4 等级的自动驾驶应当能够自主识别是否达到了设计运行条件,并 在条件无法达到时,自动执行最小风险策略,而用户并没有义务进 行介入。在 L4 的语境里,驾驶系统可以在限定的区域内实现自动 驾驶,不需要人来介入,并且在这个场景下,由系统承担责任。特 斯拉并没有遵循业界常用的自动驾驶分级标准,而是自创了一套规 则:在 FSD Beta 里,系统的设计遵循自主工作的逻辑,但必须有驾 驶员的监控。车内摄像头可以监视驾驶员注意力的集中度,如果驾 驶员走神,车内会报警;如果驾驶员忽略报警,车会自动开到路边 停下来。基于这样的设计,FSD 仍被视作是 L2 系统,事故责任在 驾驶员而不在特斯拉。从用户角度看,客户花钱买到自动驾驶能力, 但做的是测试员的工作。
这里额外提到一句 L3。L3 指的是车辆自己开,驾驶员坐在驾驶位 可以玩手机可以看视频,不能睡着。车辆如果遇到问题之后提前报 警,驾驶员在规定时间之内监管车辆。在责任划分上,根据因果关 系判断驾驶员及系统责任。特斯拉在技术上实际上已经超过 L3,但 本质还是 L2 系统。第一是因为 L3 权责的模糊性,第二是因为现在 系统还不够成熟,公司无法为 L4 背书。现在业内的一种观点是, 提出 L3 不是一个好的产品形态,未来智能驾驶产品可能先要标配 DMS,而后由 L2、L2+、L2++直接跳到 L4。
3.2. FSD 架构演进充分展现了特斯拉的强大实力
本部分将以 FSD 的架构为核心,分析 FSD 架构的底层创新、理解纯视 觉和传感器融合技术路线的异同。具体的技术细节不做详实的展开,因 为它对非研发人员对参考意义不大。 无论是纯视觉还是多传感器期融合方案,实现自动驾驶都可以拆解为以 下 2 步: 1.感知:我周围有什么物体?他们是怎么在空间上分布的?下一步他们 会去哪里? 2.规控:我该怎么走? 在感知与还原这一步,除了要识别周围物体的分布和运动状态,还需要 识别车道线、信号灯/指示牌,用于后面规划路线。在规控上,基于上一 步的结果,旨在寻找安全、舒适、高效地到达目的地的路线方案。在实 际行车过程中,这些运算需要在毫秒级别的时延里完成。纯视觉和多传 感器器融合方案的区别主要是在第一步,在规控算法方面,大家要突破 的问题并无二致。 感知上,AP 软件架构在 2020 年 8 月做了一次底层重构,是纯视觉实现 L4 的“关键一跃”。实现 L4 最难做的就是城市场景,尤其是十字路口拐 弯的场景,其困难性在于车道线轨迹复杂、其他物体多且各自的运动轨 迹不同。在早年 AP 还没有覆盖城市道路场景的时候,特斯拉的感知方 案是对二维的图像数据做语义识别。这个方案的瓶颈在于:1)行车是 在三维空间中进行的,在图像中做规控不如在空间中做规控。2)无法 对被遮挡的地方做预测。在这种方案下,AP 在复杂的城市道路场景下 的瓶颈难以突破。2020 年 8 月,马斯克在推特上宣布团队正在对 FSD 的底层架构进行重写。在此后 2021 年和 2022 年的特斯拉 AI day 上, AP 团队向公众介绍了新的软件架构,底层创新令人非常震撼。
到 2021 年年中,主要进展是建立了 2 维摄像头图像向 3维空间的映射, 相当于生成了一个实时的车体和其周围空间的俯视图,同时也获得了周 围物体的运动速度,解决了摄像头无法测速的问题。Multi-head 是业界 自动驾驶感知模块常用的方法,它包括 Backbone,Neck 和 Head,在输 入 raw data 后,Backbone 和 Neck 会提取一些通用的图像特征,然后, 在 Head 层会解决不同的感知任务,比如物体检测、交通信号灯识别、 车道线识别等,特斯拉的 Multi-head Net 叫 HydraNet。
革新一,将周围的空间统一:图像经过 RegNet、BiFAN 提取特征 后进入 BEV(鸟瞰图)空间转换层,将所有 8 个图像组合成一个超 级图像,这个新的空间较原来的二维图像增加了深度信息(物体之 间的距离)。
革新二,融入时序数据:在实际行车过程中需要做大量预测,比如 周围物体的移动速度、他们是否被遮挡、前方 50m 外的标志牌是怎 样的,这些都需要图像的上下文(即视频)。因此,特斯拉将视频 模块也放入神经网络的训练中,在 BEV Transform 后加入 Video Netural Net,由此使感知模型具有了短时记忆的能力。
到 2022 年年中,特斯拉在长尾障碍物的感知问题上取得了一定进展, 主要针对的是行车中 corner case 无法被覆盖、恶劣天气、物体被遮挡的 问题。通过前面的介绍,比较敏感的读者可能会发现特斯拉解决的问题 主要就是高精度地图和雷达可以为摄像头补足的短处,但这个模型并不 完美。在 2022 年的 AI Day 上,AP 团队向大家展示了感知模型的最新 进展,在去年 Hydra Net(+ BEV Layer + Video Neural Net)的基础上, 进一步提出了 Occupancy Network。在 Occupancy Network 中,周围的世 界被划分成小立方体,通过预测 3D 空间的占用概率来还原物体的大致 形状。它对物体没有过多的几何假设,因此可以建模任意形状的物体和 任意形式的物体运动,以应对长尾障碍物的感知和极端天气的影响。在 这种方案下,地图由 2D 形式变成了 3D 形式。此外,输入的数据不会再 经过 ISP 处理,而是直接输入 photon count 数据,这将保留更多的信息 并能够降低延迟。目前,Occupancy Network 已经在所有装 FSD 的车上 运行,大约每 10ms 运行一次。
感知层是纯视觉派自动驾驶路线的主要争议点。需要注意的是,特斯拉 也并没有完全放弃雷达,2022 年 6 月它在 FCC 注册了一款 4D 毫米波雷 达,并提交了详细的合规测试报告。而在其他方面,比如规划、车道线 识别、数据训练等方面,特斯拉的做法充分体现了其强悍的算法、工程 和架构能力。
数据:
数据标注:数据收集,一部分来自车队传回的数据。包括在用 车时失效的案例,更新标注后会被重新加入训练集。一部分来 自模拟数据(Simulation)。模拟数据是由场景生成器生成的, 最快 5min 生成一个场景,理论上可以通过排列组合的方式生 成无限多的道路场景,这主要是为了提升自动驾驶系统对长尾 场景的反应力。标注上,特斯拉采用人机合作标注的方法,大 幅提高标注效率,人机标注引擎正在构建中。Auto Labeling 和 Simulation 这两个项目被认为是工程人才集中的地方。
数据引擎:串联数据收集、人机数据标注、模型训练(包括自 动标注、规划算法等离线模型与占用网络、车道线识别等车载 模型)、上车,往复循环。
模型训练基础设施:特斯拉内部有 3 台超级计算机,包括 1.4 万个 GPU,其中 1 万个 GPU 用于模型训练,大约 4 千个 GPU 用于自动 标注。共 30PB 的分布式数据缓存,每天都有 50w 个新的视频流入。 为了更高效地利用这些视频,在加解码、读写环节都做了加速器的 研发。在过去的一年里,一共训练了 7.5 万个神经网络模型(大约 8 次/分钟),发布了其中 281 个模型。后面还会用自研芯片优化处 理性能。
规划与控制:融入成本函数、人工干预数据或其他仿真模拟数据, 在向量空间中通过传统规控方法与神经网络相结合的混合规划系 统实现汽车的行为与路径规划,生成汽车转向、加速、刹车等控制 指令,由汽车执行模块执行。这部分业界大部分主要依赖基于规则 的方法,特斯拉将深度学习很好地融入其中。其神经网络的训练集 包括两部分,一个是没有时间约束下的传统规划算法的策略,一个 是人类驾驶员手动驾驶时选择的策略。
车载电脑 FSD Computer 的设计体现全栈自研厂商对产品的充分掌控, 有助于芯片算力的充分利用。所有运行在车载电脑的神经网络模型加起 来大约有 10 亿个参数,运行过程中会生成 1000 多个神经网络信号。为 了更高效地运行这些模型,特斯拉在 FSD 计算机中搭建了专门针对神经 网络的编译器、神经网络连接器,并这些模型进行联合优化,最大化计 算利用率和吞吐量。设计混合调度系统,对两个芯片上的系统进行分布 式调度,以并行的方式运行这些网络。在这样的架构下,可以实现在 10 毫秒内任意场景在构建带高程的俯视图,这也是特斯拉能摆脱高精度地 图依赖的原因。
3.3. FSD 对特斯拉而言意义重大
全栈自研,快速迭代,基础能力扎实,构筑了特斯拉在智能驾驶领域的 核心壁垒。1)以数据为中心,在多个感知、规控、标注等部分之间共 享数据格式和特征空间,减少了重复劳动的时间和人力浪费;2)以 AI 为驱动,特斯拉作为目前世界上最领先的高科技公司之一,吸引了世界 上最顶尖的 AI 人才,在算法设计上的历次底层创新铸牢了公司的护城 河;3)全栈自研,从算法、车端硬件到离线数据中心的计算芯片,特 斯拉在关键环节逐步实现完全自主可控,将核心能力牢牢握在手中。基 于公司内部的配合有利于更好地做产品架构的顶层设计,效率上优于需 要产业链公司配合的友商。
降本增效的“向前一步”。FSD 更少的车端硬件可以减少特斯拉对供应链 的管理、故障召回等成本,这将进一步压缩整车制造成本。对马斯克而 言,“Best part is no part”,他竭尽全力去除系统中不必要的部分,从而控 制整个系统的熵维持在合理的水平。 数据调度和处理能力、算法等关键能力可拓展到其他场景。在 2022 年 AI day 上,马斯克发布了人形机器人特斯拉 bot Optimus。根据 AI day 2022 的内容不难发现,Optimus 一方面在硬件上充分共享特斯拉汽车供 应链。另一方面,由于其软件架构的顶层性,FSD 研发环节和相关算法 也在其中很好复用:1)感知算法完全是 FSD 感知的下游应用,2)路径 规划可以复用 FSD 的规控建模路径,只不过机器人场景中物体更多、交 互关系更复杂、要求的分辨率更高、环节场景更多样,3)室内环境建 模,与特斯拉对车内导航问题的抽象一致。
特斯拉的解决方案有望率先实现单车智能 L5。自动驾驶的技术路线主 要分两种,一种是单车智能,通过摄像头、雷达等传感器以及算法赋予 汽车自动驾驶的能力;一种是车路协同,在传感器的基础上结合 5G 和 高精地图来感知路况和其他车的情况来实现自动驾驶的能力。对于目前 具备 L4 能力的公司的区别,特斯拉智能驾驶前负责人 Andrej 描述很生 动:“Waymo 和业内许多其他公司都使用高清地图。必须在预先铺设地 图的环境、拥有厘米级精度的激光雷达,而且要轨道上,才能开车。你 准确地知道你将如何在十字路口转弯,哪些红绿灯与你相关,知道它们 的位置以及一切。我们不做这些假设。对我们来说,在我们遇到的每一 个路口,我们都是第一次看到它。”由于行车是基于开放场景,而车路协 同中智慧的路全面铺开短期内较难实现,结合前文的分析,相较之下特 斯拉最有希望率先通过算法革新实现全场景自动驾驶。
4. 自动驾驶,谁主沉浮
4.1. 各类厂商加紧投入,国内智能驾驶快速发展
2022H1 中国 L1、L2 级别的辅助驾驶渗透率持续提升,L1 级别的主动 安全和行车功能逐渐成标配。在中国,目前 L1、L2 级别的智能驾驶已 经大范围铺开,大众价位的车型加快 L2 级别的方案上车。
根据中国汽车报的披露,2021 年,中国乘用车市场的新车销售中, 具备 L2 级智能驾驶的车型销量为 476.6 万,占比 23.5%,同比增长 57.2%。
根据佐思汽车研究的拆分数据,在 2022H1 销售的新车中,目前 L1 级别的主动安全进展最快,渗透率达三成以上;L1 级别的行车功能 渗透率快速提升,从去年的 10%左右到 2022 年的 20%左右;L2 级 别的辅助驾驶主要集中在泊车场景,自动泊车辅助 APA 渗透率达 13.8%。
L3-L5 的智能驾驶处于商业化早期,以造车新势力、科技企业为代表的 自研派进展较快,已开始积极试水城市道路场景。
NOA 领航辅助驾驶是目前已经量产的高级别的辅助驾驶功能,目前 仅有头部造车新势力如蔚小理和头部科技公司如华为实现了高速 的 NOA。
城市道路的 NOA 是下一步要攻克的方向。由于中国的城市道路场 景复杂多变,城市 NOA 较高速 NOA 研发难度大幅提升。根据小鹏 汽车自动驾驶副总裁、前高通自动驾驶负责人吴新宙博士的公开访 谈。相比高速 NGP,城市 NGP 的代码量提升至 6 倍;感知模型数 量提升至 4 倍;和车辆行为相关的部分包括预测、规划、控制,相 关代码量提升至 88 倍。目前,小鹏和极狐已经分别在开始推送城 市 NOA 的试点;搭载激光雷达的毫末已经进入量产,计划年内发 售。不过,小鹏仅仅是在广州一些特定路段进行小范围测试,搭载 华为技术的极狐也只面向深圳的 Beta 用户进行封闭式推送。蔚来计 划 2022 年内实现在 ET7 和 ET5 等车型搭载的 NAD 系统上实现城 市辅助驾驶。
主流车企锚定 2024/2025 实现 L4,技术上走传感器融合路线,以激光雷 达为代表的硬件预埋已开始,构建数据闭环为关键能力。
目前包括蔚小理等新势力和传统的自主OEM厂商对实现 L4的规划 普遍在 2023-2025 年之间。
对 L3+的自动驾驶技术上的两派,一派跨越式,以 Waymo 为代表 的 L4 厂商。这些厂商切入智驾赛道较早,技术上往往采取多传感 器融合+高精度地图的车路协同方案。激光雷达在恶劣环境下仍能 测距和定位,高精度地图提供先验知识。这类厂商在第一波自驾潮 中崛起,吸收了大量资本市场的投资,但始终存在量产和政策合规 的问题,目前经营上主要是Robotaxi的MaaS(Mobility as a Service) 模式。另一派渐进式,它们早期以造车买车为盈利点,通过 OTA 的方式使智驾等级由 L2 向更高级别过渡。这类厂商可以通过售卖 私家车形成数据积累到模型训练、算法迭代的闭环。在渐进式厂商 中,除了特斯拉采用纯视觉方案,其他厂商都采用多传感器融合方 案,前者的难度主要在算法上,后者对算法要求低一些,但对数据 融合的考验比较大。当然对算法的要求是没有上限的,在算法无限 优化的情况下,激光雷达可以起到安全冗余的作用。
硬件预埋军备竞赛已经开始,如何用好数据、构建数据闭环是关键。 在 2022 年上市的车型中,以蔚来 ET5、理想 L9、小鹏 G9、哪吒 S、 广汽埃安 AION LX Plus 为代表,均搭载了 1 颗以上的激光雷达, 同时也加了高精度地图定位单元,各家厂商的硬件预埋已经就位, 也暗示了这些中国自主玩家都将走传感器+高精度地图的融合路线。 根据蔚来官网的数据,NIO Autonomous Driving 蔚来自动驾驶的 33 个传感器的感知系统每秒能够产生 8 个 G 的数据。相当于一秒看完 两部 4K 电影,数据积累速度非常快。面对体量如此庞大的多维数 据,如何最大化利用好数据资产,发挥其应有的价值,是每个车企 在埋下硬件后应该严谨规划的问题。
4.2. 关于自动驾驶终局的三点预测
回到智能驾驶行业上,当前中国的智能驾驶产业链正处于发展初期,车 企与自动驾驶供应链之前还未形成强绑定关系。基于前面的研究,不妨 对自动驾驶的终局做一些预测。主要观点有三: 第一, 选择从纯视觉与多传感器融合两个方向落地路径依赖较强,未来 倒戈可能性小; 第二, 自动驾驶能力为稀缺项,选择 L4 等三方厂商为车企提供解决方 案更有助于品牌在快速迭代的竞争中占得有利地位; 第三, 自动驾驶终局或将呈现类手机操作系统的苹果和安卓双足鼎立 的形态。 首先,可以看到对自动驾驶已经在路上的整车厂商,无论是多传感器融合方案,还是纯视觉方案,从数据收集到模型搭建,各自的路径依赖很 强的,未来再易辙的可能性不大。对于传感器融合方案的成本上的顾虑, 随着技术的进步,还有产业链的逐步完善以及规模效应的显现,传感器 融合方案的成本会持续下降。以激光雷达为例,当前大概是在 800 美元 左右。预计随着国内搭载激光雷达的车型逐渐放量,激光雷达的成本有 望在几年内减半。随着 L3、L4 级别自动驾驶的成熟,激光雷达成本有 望会降到 100 甚至 50 美元以内。可以参考一组百度 Apollo 的数据。2021 年6月,百度首次披露无人车成本:第五代车 Apollo Moon成本48万元。 2022 年 7 月 21 日,百度发布了第六代车 Apollo RT6,成本降到 25 万元, 这个价格和一辆 Model 3 基础款售价差不多。这样比较下来,多传感器 融合降本的逻辑也是行得通的。
其次,三方高科技公司为 OEM 厂商提供智能驾驶解决方案。智能驾驶 的核心在于算法,算法实现到量产具有很高的技术门槛。打散实现智能 驾驶的步骤来看:算法层面,在数据获得和标注,数据积累和数据标注 是耗时耗财的 Dirty work;数据利用上,搭建神经网络模型、实现好用 的规控算法需要工程和算法的复合团队。智能驾驶能力落地上,算法上 车量产需要工程能力优秀的团队做支撑。今天,智能汽车行业的演进日 新月异,专业高水平人才供不应求。参考 offer 帮相关岗位的薪酬,应届 生总包 40w 上下浮动,供需关系可见一斑。未来自动驾驶的能力是智能 车的重要能力,但在有限时间内拥有这种能力的厂商注定是少的。后进 场的玩家,比如小米,它 2021 年 3 月宣布造车,2021 年 8 月宣布以 7737 万美元的金额收购自动驾驶技术公司深动科技(DEEPMOTION TECH), 就是用资本换人才、时间。
L4 创业公司也存在与部分传统主机厂合作的空间。随着下游芯片厂商 不断推出算力更强大的自动驾驶芯片,车载芯片的算力最终将不再是实 现更高级别智能驾驶瓶颈。这意味着 L4 厂商不用通过不计成本的堆料 就有机会实现自驾能力,目前在中国已经可以看到以 Momenta、百度 Apollo、轻舟智行、文远智行为代表做 L4 自动驾驶的公司降维到 L2 市场做前装,而后迈入更高级别的自动驾驶。除了 L4,也有一些诸如毫末 智行、元戎启行等创业公司聚焦辅助驾驶解决方案赛道。对于部分传统 主机商而言,可以通过成立合资公司、合作、收购等商业手段来补齐在 智能驾驶方面的短板。
最后,赌市场终局是“苹果”车和“安卓”车。综合目前分化出来的几条技 术路径和不同整车厂 EE 架构的差异性与复杂性两点,在智能驾驶领域 大概率不会“赢者通吃”,市场格局上而更可能是类手机操作系统生态的 模式“苹果”和“安卓”共存的局面。 第一种,“苹果”车,这一类是以特斯拉和国内造车新势力蔚小理为代表, 从软件到芯片全栈自研,目前能做到全栈自研的仅有特斯拉,这些造车 新势力只能做到部分自研,正在向全栈自研布局;第二种,“安卓”车, 这一类车型中,利润中心可能是具有智能驾驶能力的平台型公司,除了 现在为大多数车厂供芯的英伟达,可能跑出来的公司可能包括华为、地 平线、Momenta 这类形态。 与手机操作系统 和上层应用生态的区别是,智能驾驶域上的合作方之间需要联合开发,有更强的绑定关系。一方面因为各整车厂的 E/E 架构不 是统一的,另一方面,即使在同一公司下,不同品牌的车型定位不同, 往往也作为独立的部门运营。此外,由于 L4 的自动驾驶需要对驾驶承 担责任,提供该能力域的公司将是乘客安全和事故归责的最终责任人。 除了技术能力的门槛,超高安全性要求和强监管规范进一步提高了准入 门槛,意味着厂商的稀缺性。