特斯拉的全自動駕駛 (FSD) 測試版軟體最近更新至 13.2.2.1 版本,因有車輛闖紅燈的報告而受到密切關注。越來越多的特斯拉用戶在網路上分享影片和感言,展示系統未能正確解釋交通號誌的時刻,引發人們對該軟體的安全性和可靠性的質疑。

這個問題的第一手資料

一位特斯拉 Model Y 車主在 Reddit 上分享了他們的經歷:
「只是想提醒大家在使用FSD時要小心、注意。我開著我剛用了一個月的 Model Y,我的 FSD 最近升級到了 13.2.2.1。它在加速和煞車方面的改進非常棒,但昨天它在左轉時闖了紅燈。用戶澄清說,他們的手放在方向盤上,腳放在煞車上方,準備在必要時進行幹預。

這個敘述強調了 FSD 經驗的複雜性——明顯的技術進步被危險行為的實例所抵消。

社區反應

這起事件引發了特斯拉愛好者和批評者的激烈爭論。

一位評論者指出:
「到目前為止,我們看到的所有影片都顯示,FSD 禮貌、尊重地對待交通,然後在看起來安全的情況下完全冷靜但非法左轉。沒有大驚小怪,沒有明顯的未能察覺,只是完全、故意違反法律。

另一位用戶指出:
「這段影片是從它用來識別此類物體的感測器之一拍攝的,我們可以清楚地看到該感測器輸出中的紅光。這是機器學習/神經網路/訓練/軟體問題,而不是感官問題。

批評者也強調了由於駕駛者自滿而引發事故的可能性:
「如果你不注意的話就不會,因為你已經被自動化系統哄騙得自滿了。這些事情會導致人員死亡,而特斯拉只會責怪司機不接管。

更廣泛的影響

雖然特斯拉的 FSD 在自動駕駛方面取得了重要的里程碑,但最近的紅燈事件暴露了系統訓練和決策演算法的缺陷。主要問題包括:

  • 態勢感知:FSD 是否辨識紅燈但故意犯錯,還是完全無法偵測到紅燈?
  • 駕駛員責任:該技術仍然是一個「監督」系統,要求駕駛員保持專注。然而,對 FSD 的依賴可能會導致反應延遲。
  • 數據和訓練:有些人認為特斯拉的數據驅動方法將透過更多車隊數據來解決此類問題,但此類事件凸顯了直接風險。

特斯拉的前進之路

特斯拉尚未對這些事件做出正式回應,但這種情況凸顯了推出先進自動駕駛技術的挑戰。隨著 FSD 的不斷發展,特斯拉必須解決:

  1. 軟體更新:立即修補以防止類似事件發生。
  2. 透明度:關於系統的限制和持續改進的清晰溝通。
  3. 駕駛員教育:強調使用 FSD 時保持警覺的重要性。

呼籲謹慎

正如一位用戶恰當地總結的那樣:
“闖紅燈是不好的……如果我能做點什麼就好了……哦,好吧。”

這種諷刺性的評論反映了人們對當前形式的 FSD 安全性日益增長的懷疑。目前,特斯拉駕駛被敦促保持警惕,並將 FSD 視為輔助工具,而不是完全自主的系統。

這些事件清楚地提醒我們,雖然自動駕駛之路可能充滿創新,但它也充滿潛在危險。