特斯拉无人驾驶成熟了吗,特斯拉无人驾驶汽车现状

众所周知,激光雷达一直是自动/无人驾驶 汽车 研究的热门,但特斯拉却反其道而行之,更专注于依靠摄像头的视觉处理技术。

据外媒报道,特斯拉在周二宣布,北美市场的部分特斯拉车辆将放弃雷达技术,转而使用基于摄像头的视觉处理技术来辅助自动驾驶系统。

根据特斯拉的说法, Autopilot 自动辅助驾驶功能正在持续向基于摄像头的Tesla Vision视觉处理技术过度。从2021年5月交付开始,为北美市场制造的Model 3和Model Y车辆将不再配备雷达。

而这些车辆也将成为特斯拉首批依靠摄像头的视觉神经网络处理技术,辅助Autopilot和FSD(完全自动驾驶)及其他主动安全功能的车辆。

不过,在过度期间,带有Tesla Vision的车辆可能会限制部分功能,包括: Autosteer(自动转向)将被限制为最高时速为75英里/小时(约为120公里/小时)和更长的最小跟随距离;禁用智能召唤和紧急车道偏离避让功能。

但这些被限制的功能有望在未来几周的时间里通过OTA软件升级进行恢复。

所有新的Model S和Model X车辆,以及为北美以外市场制造的其他所有车辆,将继续配备雷达系统来辅助自动驾驶功能。

据悉,Tesla Vision视觉处理是由特斯拉研发的视觉处理工具。 Tesla Vision基于深度神经网络,能够对行车环境进行专业的解构分析,相比传统视觉处理技术可靠性更高。

撰文?/?朱?琳

编辑?/?温?莎

设计?/?杜?凯

来源?/?Forbes,作者:Brad?Templeton

10月20日,特斯拉发布了一个限量的测试版,面向其部分早期用户。该测试版被埃隆?马斯克(Elon?Musk)称为“功能完整的完全自动驾驶”。该公司还宣布,将目前出售给车主的“FSD?in?the?future”套装的价格上调2000美元(现价10000美元),以便他们在准备就绪时可以使用该软件。

该软件包给许多用户留下了深刻印象。一些人在Youtube上发布了该系统在城市街道上运行的视频。尽管有这个名字,但“完全”自动驾驶既不是自动驾驶,也不是业内大多数人所说的完全自动驾驶。更准确的说法是,它是在城市街道上运行的特斯拉“Autopilot”。

像Autopilot一样,它需要驾驶员不间断的监控,也确实会发生错误,需要驾驶员的控制以避免事故的发生。它可以处理各种各样的城市街道,但不能应对车道或停车场,所以人类司机在旅程的起点和终点都要开车。之前的Autopilot只操作高速公路、乡村公路和部分城市快速路,不操作标志、交通信号灯等基本要素。

该车辆的功能比我在那工作时的Google?Chauffeur(现在的Waymo)在2010年展示的稍好,尽管重要的是它仅使用摄像头和最小限度的地图即可完成工作,而Chauffeur需要使用详细的地图和激光雷达,并尽量减少使用摄像头。

这十年间,神经网络计算机视觉的能力得到了突飞猛进的发展。特斯拉做出了很大的努力——仅在主要参与者中有效——避免了激光雷达,并严重依赖于摄像头(还有雷达,这是每个人都在使用的)。

在线视频显示,这些车辆在各种街道和十字路口行驶。这包括没有标志的小街道,大的多车道街道,合理复杂的十字路口,包括无保护的转弯等等。这就是特斯拉所谓的“功能完整”——它至少在所有典型的路线上做了一些事情。

虽然我们不能从一小部分视频中得出确切的结论,但可能会有施工和一些等级的道路的问题,我们看到了白天和晚上,但还没有看到恶劣天气下的视频。

这些视频中,有一些必要的干预——人类司机必须抓住方向盘,控制局面,以避免极有可能发生的事故。虽然没有关于需要这些的频率的统计数据,但这种干预似乎相当频繁。这是需要持续人工监督的系统规范,也是他们需要这种监督的原因。

所有的完全自动驾驶汽车项目都需要一个或两个“安全司机”在方向盘后面,他们也需要做这样的干预,一开始很频繁,随着时间的推移越来越少。

直到最近,Waymo和现在的Nuro才部署了没有监管司机的车辆。Cruise最近获得了这样做的许可,但还没有实施,他们声称可能会在今年年底实施。亚马逊的Zoox也有这样的许可证。

根据特斯拉的视频和声称,在埃隆?马斯克的通勤中,他通常很少干预驾驶,有时根本没有干预,但这“似乎在大多数情况下都是有效的”。在现实中,我们要计算需要干预的频率。

据报道,特斯拉的Beta测试只对有较高安全记录的司机进行,但没有透露测试是如何进行的,这给我们带来了一些大问题:

这种干预有多频繁,情况有多严重?

特斯拉在没有经过培训和合作伙伴的情况下,能有效地让客户扮演自动驾驶汽车安全司机的角色吗?这与优步在发生致命事故时的做法有何不同?

特斯拉决定不使用激光雷达和详细地图,这对他们系统的质量有什么影响?

驾驶员可以安全地使用它吗?通过测试又能得到什么呢?

这合法吗?

干预的频率有多高?

人们不能从这些视频中辨别,但我们可以比较一下人类发生事故的频率。

有时候,干预会在不需要的时候发生,所以真正需要衡量的是“必要的”干预,即没有干预就会发生不好的事情。许多团队使用模拟器来模拟在没有干预的情况下会发生什么。“坏事”可以指严重的事故,或者只是指明显的驾驶失误,比如短暂地转向另一条车道,即使你很幸运,车道上没有车。

人类每10万英里就遭遇一次事故,普通驾驶大约需要8-10年的时间。保险公司每25万英里(25年)就会遇到一次,警察每50万英里(40-50年)就会遇到一次。

幸运的是,死亡非常罕见——人类驾驶每8000年发生一次,高速公路上每2万年发生一次。这对任何一个司机来说都是罕见的,我们开得太多,所以我们才会遇到那么多。

就其本身而言,整天驾驶无需干预似乎非常令人印象深刻,尤其是对那些初入这一领域的人来说,但这距离真正实现完全自动驾驶,而不是监控驾驶员辅助的目标还有很长的路要走。

这种测试方式可以吗?

如果没有受过良好训练的安全驾驶员,并且每辆车配备两名驾驶员,大多数自动驾驶团队是不会测试这种水平的系统的。

优步对其安全司机的培训很差,该公司承认,发生事故时,每辆车只安排一名司机是错误的。这起事故的主要责任是安全司机无视所有规则,用手机看电视而不是工作,但我们知道其他特斯拉车主也会做类似的事情。

另一方面,Autopilot表明,对于遵循良好程序的驾驶员来说,安全使用Autopilot是可能的。

统计数据显示,在高速公路上使用Autopilot的特斯拉司机不如不使用的司机安全,但安全程度只是略有下降。(特斯拉公布了误导性的数据,声称它们更安全。)这种较低的安全水平可能可以解释为这样一个事实:一些司机正确地使用了它,是安全的,而另一些司机则没有,从而降低了平均水平。

我的经验是,使用它的一个好方法是在你的头脑中一直保持“影子驾驶”,即脑中想着移动你的手但不施加压力,当汽车转动方向盘时让你的手随着方向盘移动。用这种方法,如果方向盘不像你想要的那样移动,你可以快速地从轻力转变为实力,推动方向盘到它应该去的地方。

但并不是所有的司机都这么做,有些人不这么做,甚至试图打破特斯拉的警告。许多人认为,车内的摄像头监控着司机的视线,以确保注意力得到了关注。其他竞争系统也这样做。特斯拉对此进行过实验,但迄今为止拒绝采取此类对策。

当然,让细心的司机测试这个软件对特斯拉来说是非常有价值的。这就是为什么其他公司花费数百万美元来支付安全驾驶员在几个州进行试车的原因。

马路中央也有拐角案例

所有这些测试的目的都是为了解决部署这些汽车的难题。在没有持续干预的情况下,在普通道路上驾驶相对“容易”(但要做到特斯拉所做的,即在没有激光雷达和地图的城市街道上驾驶,就比较困难)。

即使你能处理99.9%的情况,你也只是达到目标的一小部分。你需要找到所有那些不寻常和罕见的事件,人们称之为“拐角案例”。但这些不只是发生在角落里,找到它们中的大多数是一个非常漫长和困难的项目。Waymo的顶尖团队耗费了十年时间来做这件事。没有人真正做到过。

在网络视频中,司机们所表达的喜悦之情,是那些外行人的心声,他们以为得到99.9%的答案就能解决99.9%的问题。但它解决的问题还不到1%的十分之一。

驾驶辅助工具中,通过人工监视,你可以让人工监视人员处理剩下的问题,作为人类一般的问题解决者,我们通常可以这样做。

也就是说,特斯拉有一个很棒的测试工具。司机们不再花钱找人来测试车辆,而是为这样做的特权付费。这让特斯拉比其他任何公司都能以更低的成本更快地积累里程,他们自然想要利用这一点。

这对特斯拉来说是个好消息,因为当我说他们已经走了千分之一的路时,你可能认为这意味着他们还有几千年的工作要做。好消息是,由于团队随着时间的推移越来越快,他们做后期的工作比早期的工作更快。

Waymo可能花了2年时间才达到1/1000,但再过10年,他们就差不多达到目标了。这是因为随着时间的推移,他们都壮大了自己的团队和测试队伍,也接触到了各种各样的新技术,比如神经网络、高级模拟等等。

特斯拉一直在这么做,而且还制造自己的处理器,几乎和谷歌自己定制的处理器一样好。摩尔定律还没有消亡,它不断提供更多的工具来加快其余工作的进行。但目前特斯拉还有很长的路要走。

地图和激光雷达

到目前为止,我们所看到的并不能告诉我们很多关于特斯拉避开激光雷达的争议选择和相关问题。

特斯拉希望利用摄像头和神经网络创建虚拟激光雷达,告诉他们摄像头看到的视觉目标有多远。这些视频向我们展示了他们对汽车和其他障碍物闪烁的感知,这在这些视觉系统中很常见,但也显示出他们还没有完全实现。

我们进一步了解了他们不使用详细地图的决定。人们试图在没有地图的情况下开车,以避免地图成本,并能够立即处理整条道路而无需绘制地图。地图可为你提供更多数据(即使它们错了并且道路已经改变),可以帮助你更安全。

不管你对地图的成本有什么看法,你很快就会想到没有它们的情况,而不是你想在第一批上路的汽车上做的事情。我们可以在特斯拉“FSD”的视频中清楚地看到这一点,该视频向左转弯并带有分隔线。

在这个视频中,你看到车辆左转。在几乎恰好一分钟的时间内,汽车针对要驶入的道路计算出了一个错误的地图,从而将道路分隔线放置在错误的位置。它试图驶进迎面而来的车流中,但司机接管了它,把车开进了正确的车道。

一辆没有地图的汽车在驾驶时,它的地图就会自动生成。它必须弄清楚所有的路缘、车道、标志和交通控制系统在哪里,以及每条车道的规则,然后从中选择驶入哪条车道以及如何驶入。

一辆有地图的汽车依赖于之前通过交叉路口的经验,以及对数据理解的人类质量保证。它仍然需要了解现场情况,特别是道路发生变化的任何地区,当然还要了解道路上所有移动的东西,但首先要做的是让路面更安全。

特斯拉自然会努力使自己的汽车更好地处理这样的路口,而不会再次犯同样的错误。而且,他们的车队意味着他们将迅速获得有关此方面的报告,并在进行必须进行的逐步改进方面具有优势。

但是,尚无法从摄像头图像完全了解道路的布局,这就是为什么大多数团队都觉得拥有包含所有细节的地图可以使它们更安全,功能更强大,即使制作和维护地图要花钱,并且它最初限制了可提供更高安全性的驾驶区域。

这是合法的吗?

其中一些测试人员在加州。这让人想起了早期的一个事件,当时由安东尼·莱万多夫斯基(Anthony?Levandowski)领导的优步自动驾驶团队试图在加州测试优步的车辆。加州法律要求测试自动驾驶汽车必须获得许可。

优步并不想获得许可,尽管莱万多夫斯基参与了起草这部法律的谈判。优步声称,由于法律豁免了“司机辅助”系统需要许可,优步并不需要许可,因为他们在任何测试车辆上都有一名安全司机,因此这就是司机辅助。

汽车制造商一直在推动在法律中加入驾驶员协助例外条款,因为他们不希望他们销售的辅助系统突然需要许可。

加州车管所说“不行”。毕竟,既然每个人都使用安全驾驶员,那么法律就毫无意义,任何汽车都不需要许可证。

他们的观点是,如果你真的试图制造一辆自动驾驶汽车,你需要许可证,即使你有一个人作为正式司机监控它。他们告诉优步,他们将吊销所有优步车辆的牌照,除非他们排队等候。

这使特斯拉处于一种不寻常的状况。特斯拉的高速公路版Autopilot是驾驶员的辅助工具,不需要许可证。但是他们将这个Beta测试版本称为“完全自动驾驶”。

正如我在上文中所断言的那样,这并不是像大多数行业内部人士所说的那样是真正的自动驾驶或完全自动驾驶,但是只要特斯拉说这是制造自动驾驶汽车的努力,许可证法似乎可能适用于他们,并关闭该州以及可能具有类似规则的其他州的Beta版程序。

本文来源于汽车之家车家号作者,不代表汽车之家的观点立场。