新浪科技讯 6月20日下午消息,近期,一场针对特斯拉的调查,在社交媒体上掀起了轩然大波,这份调查来自美国高速公路安全管理局(NHTSA)。NHTSA展开调查的直接原因,是有不止一辆特斯拉在开启自动驾驶系统Autopilot的情况下,闯入已有事故现场,撞上明明早已停在路边的急救车、警车或者出事车辆。在16起这样的事故中,Autopilot都是在汽车发生实际撞击前不到一秒才中止了控制。而这,完全没有给够人类司机接手的时间。“车祸前1秒特斯拉自驾系统自动退出”登上微博热搜,引发网友热议。
对此,有网友表示,“信自动,永远不如相信自己。”
也有网友指出:“很多自动驾驶可能都是这样的。因为算法解决不了碰撞,只能退出。现在的算法没有那么智能,这些涉及到道德法规层次的,只能最简单化处理。”对此,你怎么看?
(冀文超 )