美国国家公路交通安全管理局(NHTSA)于 10 月 7 日正式启动编号为 PE25012 的初步调查,聚焦特斯拉“全自动驾驶系统”(FSD)在激活状态下的交通违规问题,涉及 “FSD(监督版)”与“FSD(测试版)” 两个版本,预计影响全美 288.26 万辆配备该功能的特斯拉车辆。此次调查直指FSD的核心安全隐患 —— 当 FSD 发出突发驾驶指令时,是否剥夺了驾驶员的干预时间与监管能力。
两类高危场景浮出水面,多起事故致人员受伤
NHTSA通过梳理投诉与事故报告发现,FSD 违规行为集中表现为两大危险场景:
1)闯红灯引发碰撞:已核实 18 起投诉、1 起媒体报道及 6 起强制报告(SGO)事故。在这些事件中,特斯拉车辆在 FSD 模式下接近路口时,存在闯红灯、未完全停车或误判信号灯状态等问题,且未向驾驶员发出预警。6 起事故均造成与其他车辆的碰撞,其中 4 起导致人员受伤。值得警惕的是,马里兰州乔帕镇某路口多次发生同类事件,印证问题具有复现性,特斯拉目前已针对性修复该路口的系统识别问题。
2)逆向变道与车道偏离:共收集 2 起 SGO 报告、18 起投诉及 2 起媒体报道,涉及 FSD 指令车辆压双黄线、驶入对向车道,或无视交通标识在转向车道直行等行为。部分案例中,系统变道前未给出足够预警,驾驶员来不及干预便已违规。此前特斯拉 Robotaxi 在奥斯汀测试时,也曾因类似 “压线驶入对向车道” 问题引发其他车辆鸣笛警告。
调查直击 L2 级系统的责任边界争议
尽管特斯拉明确将 FSD 界定为 SAE L2 级辅助驾驶系统,强调驾驶员需全程监管并承担法律责任,但 NHTSA 的调查重点直指系统设计缺陷:当 FSD 自主发出违规驾驶指令时,是否通过“突发操作” 规避了驾驶员的有效监督。调查将从四方面展开评估:系统对信号灯、车道标识的识别准确性;违规操作前的预警机制与响应时间;驾驶员干预窗口是否充足;以及特斯拉后续系统更新的改进效果。
“这不仅是技术问题,更是责任界定的关键考验。” 业内专家指出,类似中国测试中出现的“2小时7次违章”事件,凸显 L2 级系统违规时的责任模糊性 —— 算法决策引发的罚单最终仍由驾驶员承担。此次调查可能为行业确立 “系统设计合理性” 的监管标尺。
特斯拉透明度遭质疑,纯视觉方案再受挑战
值得关注的是,特斯拉在自动驾驶安全数据披露上的不透明性已成监管痛点。此前该公司曾要求 NHTSA 对 Robotaxi 安全性回应予以保密,并被指滥用数据报告机制。而此次 FSD 暴露的识别缺陷,再度引发对其 “纯视觉方案” 的争议。业内分析认为,缺乏激光雷达等冗余传感器,可能导致系统在复杂路况下对交通信号、车道标识的识别精度不足,这与特斯拉 Robotaxi 此前在雾天等场景下需暂停运营的技术短板一脉相承。
中国境内案例与法规:违规频发下的责任刚性约束
(一)典型事件:从高频违章到致命事故
特斯拉 FSD 进入中国市场后迅速暴露适配问题。2025 年 2 月,某汽车博主在测试FSD过程中遭遇2小时内7次违章,包括占用自行车道、压实线、转向车道直行等,另一自媒体测评更记录到 34 次违规行为。由专家指出,问题根源在于 FSD 基于美国道路数据训练,对中国交通规则与复杂路况适配不足,例如误将美国允许的“模糊压线”习惯带入国内监管场景。
更严重的是辅助驾驶系统引发的伤亡事故。2024 年 9 月,浙江慈溪一位驾驶员开启 L2 级辅助驾驶后放松警惕,车辆以 110km/h 时速闯入高速拥堵路段,因系统未及时识别障碍物,最终造成追尾 4 车、后排乘客死亡的惨剧。事后调查显示,事发时视线良好,人工驾驶本可避免事故,但驾驶员过度依赖系统导致反应滞后。尽管检方因情节轻微作出相对不起诉决定,但明确指出驾驶员需承担核心责任。
(二)法规框架:“人机共驾” 的责任红线清晰化
中国对辅助驾驶的监管已形成刚性约束。公安部交管局明确表态,国内所有 “智驾” 系统均属辅助驾驶范畴,驾驶员必须全程掌控车辆,“脱手脱眼” 将面临民事赔偿、行政处罚、刑事追责三重风险。这一立场在《道路交通安全法》修订讨论中进一步明确,拟细化 0-2 级辅助驾驶的法律属性,强调 “驾驶人始终是第一责任人”。
9月17日,工信部就《智能网联汽车组合驾驶辅助系统安全要求》强制性国家标准公开征求意见。其中要求:系统在激活状态下,且至少在车速大于10km/h时,应至少采用手部脱离检测和视线脱离检测方式,持续检测驾驶员是否在执行相应的动态驾驶任务。发生一定次数的手部脱离或者视线脱离后,应在至少30分钟内禁止使用组合驾驶辅助系统。系统在激活状态下,不应关闭手部脱离检测和视线脱离检测。若系统确认视线脱离检测处于不可用状态,则系统不应通过非车道巡航控制功能使车辆离开本车道。
在车企责任层面,监管要求企业严格履行三重义务:一是禁止夸大宣传,需明确标注系统功能边界;二是强化用户培训,告知操作规范与禁止事项;三是保障生产一致性,通过充分测试验证系统可靠性。对于违规频发的自动驾驶功能,监管部门可依据《智能网联汽车道路测试与示范应用管理规范》暂停其测试资格,倒逼企业迭代优化。
目前 NHTSA 的调查已覆盖路口、对向车道、铁路道口等多类场景,未来可能还将根据新证据扩展调查范围。特斯拉方面暂未回应具体违规指控,但表示“将配合监管并优化系统”。而在中国市场,随着 FSD 测试范围扩大,监管部门正密切跟踪其违章整改情况,相关数据或成为后续法规完善的重要参考。