一条道路走到黑,特斯拉弃用毫米波雷达
- 来源:车霸网 2022-05-18 汽车
特斯拉5月25日宣布,将在Autopilot等驾驶辅助系统中取消毫米波雷达。从5月份开始,美国和加拿大市场制造的Model 3和Model Y的自动驾驶功能将全面取消毫米波雷达,仅依靠摄像头来实现。
取消毫米波雷达之后,Autopilot搭载的 8 颗摄像头实现了车身周围的 360 度覆盖,其编织的全车BEV鸟瞰神经网络可以无缝地预测全车任何一个方位的多个障碍物接下来的移动轨迹。
不过特斯拉还没有完全摒弃毫米波雷达,Model S和Model X车型以及中国生产的Model 3和Model Y都还会保留毫米波雷达。北美Model 3、Model Y的雷达传感器被阉割更多是出于成本考虑。对于特斯拉的这一举措,业内都表示疑问,难道特斯拉真的要一条道路走到黑?
在特斯拉宣布将在部分车型上取消装配毫米波雷达,仅使用摄像头进行自动驾驶的信息采集后,多家机构对特斯拉的这一决策表示感到担忧,并同步下调了相应车型的评级。它失去了包括 IIHS(美国公路安全保险协会) 、NHTSA(美国国家公路交通安全管理局 ) 、CR(消费者报告)内的多家机构对这些车型的“安全背书”。
显然马斯克和特斯拉的工程师都是行业中最为杰出的人才,他们不会不知道多传感器融合的重要性,也不会因为固执己见而坚持做明显错误的决策。如果连成本不高的毫米波雷达都要取消,那么必定是特斯拉找到了更好的解决方案。
马斯克详细解释过他对雷达和摄像头的看法,在雷达波长下,现实世界看起来像一个奇怪的幽灵世界。除了金属,几乎所有东西都是半透明的。当雷达和视觉感知不一致时,惯常做法是相信视觉而忽略毫米波检测结果。视觉具有更高的精度,因此投入两倍的精力改善视觉比押注两种传感器的融合更明智。
传感器的本质是比特流,摄像头比特/秒的信息量要比雷达和激光雷达高几个数量级。雷达必须有意义地增加比特流的信号/噪声,以使其值得集成。随着视觉处理能力的提高,摄像头的性能将会远远甩开当下的雷达。
在三月底,特斯拉发布了一项新专利,专利中介绍了一种新系统,该系统仅利用两个神经网络来使用图像数据,即可准确测量物体间的距离,其中一个神经网络根据摄像头捕捉的画面来测算距离,另一个神经网络通过对图像注释来给第一个神经网络提供学习数据。
特斯拉训练了一个高度精确的RNN,通过15帧照片/秒的、基于时间序列的视频来预测障碍物的速度和加速度。RNN它的关键词是预测,全称Recurrent Neural Network(循环神经网络),顾名思义基于环状神经网络传递和处理信息,通过内部记忆来处理任意时序的输入序列,以准确预测接下来即将发生的事情。
对于Autopilot的RNN来说,给到当前汽车周围的行人、车辆和其他障碍物的移动路径,RNN 就可以预测接下来的移动轨迹,包括位置、速度和加速度。在5月25日正式官宣移除雷达的前几个月,特斯拉一直在将其RNN与全球车队中的雷达并行运行,通过雷达输出的正确数据和 RNN 输出结果校对,来提升RNN预测的准确性。
由于特斯拉在全球的车队规模已经超10万辆,特斯拉得以在海量场景数据的训练下迅速改善其RNN的性能。RNN一旦将预测的准确性提升到和雷达输出结果的同等水平,就会形成相对毫米波雷达的巨大优势,这就是特斯拉放弃毫米波雷达的原因了。
虽然特斯拉放弃使用雷达的决定非常坚决,马斯克也对自家的技术非常有信心,但是采用纯视觉方案的自动驾驶是否真的会比原来更加可靠还有待进一步验证。毕竟在恶劣天气下环境对于摄像头的影响还是非常大的,少了雷达的保障自动驾驶还能正常工作吗?目前从网络上特斯拉车主的反馈来看,他们也对纯视觉方案的Autopilot持怀疑态度,所以结果究竟如何我们还是等待新车上市之后再看吧。