特斯拉自动驾驶事故2021年,工程师应该对谁忠诚,特斯拉自动驾驶事故

埃隆·马斯克的SpaceX刚实现人类史上首次商业载人航天,他的特斯拉 汽车 就在Autopilot(自动辅助驾驶)模式中出了一次撞车事故。

近日,在中国台湾,一辆特斯拉Model 3直直撞向一辆横躺在马路上的货车,所幸,此次并无人员伤亡。据视频显示,当时车流量不多,公路可见度良好。

那么,问题出在哪里?警方接受媒体采访时称,当时特斯拉处于Autopilot模式,时速定速约为110公里。车主本以为车子检测到障碍物会自动刹车,然而当他注意到车子没有慢下来时,他踩了刹车却已来不及。

另外,货车司机也告诉警方,称他的货车发生事故,侧翻在马路上,他自行脱困后到货车后方的分隔岛等待救援,在注意到特斯拉 汽车 直直驶向他的货车时,他曾挥手示意却没有用。

此前,特斯拉就已经发生过类似的撞车事故,其中一起也在中国台湾。据当时的调查结果显示,由于中国台湾接受电动车挂牌上路,并未全面开放“自动驾驶”功能,“自动驾驶”功能仅能作为辅助,一旦发生车祸,肇事责任仍由驾驶人负责。总而言之,车还是要驾驶人来开。

上述两起事故并无人员伤亡,但截至目前,美国就已经发生了至少三起特斯拉致死事件。

2019年3月,在美国德尔雷海滩附近,一名特斯拉Model 3驾驶员在事故发生时也处于Autopilot模式中,随后特斯拉撞向了一辆卡车。

图自网络。

2018年3月,在加州圣塔克拉县山景城的公路上,一名特斯拉驾驶员开启了Autopilot模式。随后,他在玩手机 游戏 的过程中,没有注意到Autopilot将车开向高速公路的分道角区,并撞向了屏障,驾驶员被送进医院后身亡。

图自网络。

2016年5月,事故发生在美国佛罗里达州的威力斯顿,一辆特斯拉Model S开启了Autopilot模式,没能发现一辆拖车的白色车身并撞向拖车,结果是特斯拉驾驶员身亡。

对于上述事故,美国国家运输安全委员会(National Transportation Safety Board)分别发布了调查报告,均认定车祸的可能原因在于,特斯拉驾驶员未能避让车辆或障碍物,过度依赖特斯拉的自动化模式。同时,报告批评了特斯拉Autopilot的操作设计,称该设计与特斯拉的指导方针和警告有所违背,使得驾驶员能长时间脱离驾驶,使用自动模式。

需要注意的是,特斯拉将自动辅助驾驶取名为“Autopilot”,这被不少人诟病。“Autopilot”听起来就像“自动驾驶”,然而这两者的区别并不小。

据特斯拉中国台湾官网介绍,Autopilot自动辅助驾驶功能“需要驾驶人主动监督,并无法使车辆自动驾驶”。

图自中国台湾特斯拉官网。

美国高速公路安全保险协会(IIHS)的一份调查报告指出,由于当前自动驾驶系统的局限,部分厂商对自动辅助驾驶系统的命名似乎过于夸张,使得驾驶员获得了错误信息:48%的受访者认为在使用特斯拉的AutoPilot模式时,自己能放开方向盘。当问及日产(Nissan)的半自动驾驶系统(ProPilot Assist)时,有33%的人认为能放开方向盘。随后是通用 汽车 的超级巡航(Super Cruise)和BMW的辅助驾驶Plus(Driving Assistant Plus),比例下降至27%,奥迪 汽车 的交通堵塞助手(Traffic Jam Assist)排最后,只有21%。而在其他问题上,包括打电话、发短信、看视频、睡觉等,特斯拉的认可比例都超过了其他车厂。

“特斯拉的用户手册清楚地说明了Autopilot是一种驾驶员要亲自驾驶的功能(‘Hands-on feature’),但这显然没有传达给所有人”,IIHS 主席大卫·哈基(David Harkey)接受媒体采访时称,“制造商应该考虑其系统名称所传达的信息”。