专业的汽车质量投诉平台

国外召回|美国监管机构针对特斯拉辅助驾驶系统FSD的安全问题启动缺陷调查

来源:中国汽车召回网
1.1万0收藏
导读

美国NHTSA启动对特斯拉FSD系统的缺陷调查,聚焦其交通违规问题,涉及两大高危场景。调查直击L2级系统责任边界争议,或为行业确立监管标尺。特斯拉因数据不透明和纯视觉方案遭质疑。中国境内,特斯拉FSD也暴露适配问题,中国已形成“人机共驾”刚性法规约束,明确驾驶员第一责任人地位。

内容由DeepSeek-R1模型生成

美国国家公路交通安全管理局(NHTSA)于 10 月 7 日正式启动编号为 PE25012 的初步调查,聚焦特斯拉“全自动驾驶系统”(FSD)在激活状态下的交通违规问题,涉及 “FSD(监督版)”与“FSD(测试版)” 两个版本,预计影响全美 288.26 万辆配备该功能的特斯拉车辆。此次调查直指FSD的核心安全隐患 —— 当 FSD 发出突发驾驶指令时,是否剥夺了驾驶员的干预时间与监管能力。

两类高危场景浮出水面,多起事故致人员受伤

NHTSA通过梳理投诉与事故报告发现,FSD 违规行为集中表现为两大危险场景:

1)闯红灯引发碰撞:已核实 18 起投诉、1 起媒体报道及 6 起强制报告(SGO)事故。在这些事件中,特斯拉车辆在 FSD 模式下接近路口时,存在闯红灯、未完全停车或误判信号灯状态等问题,且未向驾驶员发出预警。6 起事故均造成与其他车辆的碰撞,其中 4 起导致人员受伤。值得警惕的是,马里兰州乔帕镇某路口多次发生同类事件,印证问题具有复现性,特斯拉目前已针对性修复该路口的系统识别问题。

2)逆向变道与车道偏离:共收集 2 起 SGO 报告、18 起投诉及 2 起媒体报道,涉及 FSD 指令车辆压双黄线、驶入对向车道,或无视交通标识在转向车道直行等行为。部分案例中,系统变道前未给出足够预警,驾驶员来不及干预便已违规。此前特斯拉 Robotaxi 在奥斯汀测试时,也曾因类似 “压线驶入对向车道” 问题引发其他车辆鸣笛警告。

调查直击 L2 级系统的责任边界争议

尽管特斯拉明确将 FSD 界定为 SAE L2 级辅助驾驶系统,强调驾驶员需全程监管并承担法律责任,但 NHTSA 的调查重点直指系统设计缺陷:当 FSD 自主发出违规驾驶指令时,是否通过“突发操作” 规避了驾驶员的有效监督。调查将从四方面展开评估:系统对信号灯、车道标识的识别准确性;违规操作前的预警机制与响应时间;驾驶员干预窗口是否充足;以及特斯拉后续系统更新的改进效果。

“这不仅是技术问题,更是责任界定的关键考验。” 业内专家指出,类似中国测试中出现的“2小时7次违章”事件,凸显 L2 级系统违规时的责任模糊性 —— 算法决策引发的罚单最终仍由驾驶员承担。此次调查可能为行业确立 “系统设计合理性” 的监管标尺。

特斯拉透明度遭质疑,纯视觉方案再受挑战

值得关注的是,特斯拉在自动驾驶安全数据披露上的不透明性已成监管痛点。此前该公司曾要求 NHTSA 对 Robotaxi 安全性回应予以保密,并被指滥用数据报告机制。而此次 FSD 暴露的识别缺陷,再度引发对其 “纯视觉方案” 的争议。业内分析认为,缺乏激光雷达等冗余传感器,可能导致系统在复杂路况下对交通信号、车道标识的识别精度不足,这与特斯拉 Robotaxi 此前在雾天等场景下需暂停运营的技术短板一脉相承。

中国境内案例与法规:违规频发下的责任刚性约束

(一)典型事件:从高频违章到致命事故

特斯拉 FSD 进入中国市场后迅速暴露适配问题。2025 年 2 月,某汽车博主在测试FSD过程中遭遇2小时内7次违章,包括占用自行车道、压实线、转向车道直行等,另一自媒体测评更记录到 34 次违规行为。由专家指出,问题根源在于 FSD 基于美国道路数据训练,对中国交通规则与复杂路况适配不足,例如误将美国允许的“模糊压线”习惯带入国内监管场景。

更严重的是辅助驾驶系统引发的伤亡事故。2024 年 9 月,浙江慈溪一位驾驶员开启 L2 级辅助驾驶后放松警惕,车辆以 110km/h 时速闯入高速拥堵路段,因系统未及时识别障碍物,最终造成追尾 4 车、后排乘客死亡的惨剧。事后调查显示,事发时视线良好,人工驾驶本可避免事故,但驾驶员过度依赖系统导致反应滞后。尽管检方因情节轻微作出相对不起诉决定,但明确指出驾驶员需承担核心责任。

(二)法规框架:“人机共驾” 的责任红线清晰化

中国对辅助驾驶的监管已形成刚性约束。公安部交管局明确表态,国内所有 “智驾” 系统均属辅助驾驶范畴,驾驶员必须全程掌控车辆,“脱手脱眼” 将面临民事赔偿、行政处罚、刑事追责三重风险。这一立场在《道路交通安全法》修订讨论中进一步明确,拟细化 0-2 级辅助驾驶的法律属性,强调 “驾驶人始终是第一责任人”。

9月17日,工信部就《智能网联汽车组合驾驶辅助系统安全要求》强制性国家标准公开征求意见。其中要求:系统在激活状态下,且至少在车速大于10km/h时,应至少采用手部脱离检测和视线脱离检测方式,持续检测驾驶员是否在执行相应的动态驾驶任务。发生一定次数的手部脱离或者视线脱离后,应在至少30分钟内禁止使用组合驾驶辅助系统。系统在激活状态下,不应关闭手部脱离检测和视线脱离检测。若系统确认视线脱离检测处于不可用状态,则系统不应通过非车道巡航控制功能使车辆离开本车道。

在车企责任层面,监管要求企业严格履行三重义务:一是禁止夸大宣传,需明确标注系统功能边界;二是强化用户培训,告知操作规范与禁止事项;三是保障生产一致性,通过充分测试验证系统可靠性。对于违规频发的自动驾驶功能,监管部门可依据《智能网联汽车道路测试与示范应用管理规范》暂停其测试资格,倒逼企业迭代优化。

目前 NHTSA 的调查已覆盖路口、对向车道、铁路道口等多类场景,未来可能还将根据新证据扩展调查范围。特斯拉方面暂未回应具体违规指控,但表示“将配合监管并优化系统”。而在中国市场,随着 FSD 测试范围扩大,监管部门正密切跟踪其违章整改情况,相关数据或成为后续法规完善的重要参考。

网站部分文章为转载,仅供参考。版权和著作权归原作者所有,转载目的在于传递更多信息,不代表本站赞同其观点和对其真实性负责。 如有侵权请邮箱联系本站工作人员 (admin@qctsw.com) 。
第一时间获取QCTSW行业新鲜资讯和深度商业分析,请在微信公众账号中搜索「汽车投诉网」或者「qctswcom」,或用手机扫描左方二维码,即可获得汽车投诉网每日精华内容推送和最优搜索体验,并参与编辑活动。