特斯拉的全自动驾驶 (FSD) 测试版软件最近更新至 13.2.2.1 版本,因有车辆闯红灯的报道而受到密切关注。越来越多的特斯拉用户在网上分享视频和感言,展示系统未能正确解释交通信号的时刻,引发人们对该软件的安全性和可靠性的质疑。
对这个问题的第一手资料
一位特斯拉 Model Y 车主在 Reddit 上分享了他们的经历:
“只是想提醒大家在使用FSD时要小心、注意。我开着我刚用了一个月的 Model Y,我的 FSD 最近升级到了 13.2.2.1。它在加速和制动方面的改进非常棒,但昨天它在左转时闯了红灯。”用户澄清说,他们的手放在方向盘上,脚放在制动器上方,准备在必要时进行干预。
这个叙述强调了 FSD 经历的复杂性——明显的技术进步被危险行为的实例所抵消。
社区反应
该事件引发了特斯拉爱好者和批评者的激烈争论。
一位评论者指出:
“到目前为止,我们看到的所有视频都显示,FSD 礼貌、尊重地对待交通,然后在看起来安全的情况下完全冷静但非法左转。没有大惊小怪,没有明显的未能察觉,只是完全、故意违反法律。”
另一位用户指出:
“这段视频是从它用来识别此类物体的传感器之一拍摄的,我们可以清楚地看到该传感器输出中的红光。这是机器学习/神经网络/训练/软件问题,而不是感官问题。”
批评者还强调了由于驾驶员自满而引发事故的可能性:
“如果你不注意的话就不会,因为你已经被自动化系统哄骗得自满了。这些事情会导致人员死亡,而特斯拉只会责怪司机不接管。”
更广泛的影响
虽然特斯拉的 FSD 在自动驾驶方面取得了重要的里程碑,但最近的红灯事件暴露了系统训练和决策算法的缺陷。主要问题包括:
- 态势感知:FSD 是否识别红灯但故意犯错误,还是完全无法检测到红灯?
- 驾驶员责任:该技术仍然是一个“监督”系统,要求驾驶员保持专注。然而,对 FSD 的依赖可能会导致反应延迟。
- 数据和训练:一些人认为特斯拉的数据驱动方法将通过更多车队数据来解决此类问题,但此类事件凸显了直接风险。
特斯拉的前进之路
特斯拉尚未对这些事件做出正式回应,但这种情况凸显了推出先进自动驾驶技术的挑战。随着 FSD 的不断发展,特斯拉必须解决:
- 软件更新:立即修补以防止类似事件发生。
- 透明度:关于系统的局限性和持续改进的清晰沟通。
- 驾驶员教育:强调使用 FSD 时保持警惕的重要性。
呼吁谨慎
正如一位用户恰当地总结的那样:
“闯红灯是不好的……如果我能做点什么就好了……哦,好吧。”
这种讽刺性的评论反映了人们对当前形式的 FSD 安全性日益增长的怀疑。目前,特斯拉司机被敦促保持警惕,并将 FSD 视为辅助工具,而不是完全自主的系统。
这些事件清楚地提醒我们,虽然自动驾驶之路可能充满创新,但它也充满潜在危险。