马斯克直播大秀 FSD 能力的得瑟劲儿还没过,监管部门却先找上门了。
调查内容:特斯拉隐藏的脱手驾驶模式,“伊隆模式”。 并且声明特斯拉必须配合,否则将面临每天 2.6 万美元(约 18.95 万元)的罚款 。
另一方面,特斯拉备受争议“命案”事故,也走到关键节点:马斯克正在和司法部门极限拉扯,力求避免出庭直接作证。
而随着舆论的发酵,特斯拉之前因为自动驾驶引发的种种事故也都被重新提起、议论。马斯克和特斯拉自动驾驶,正麻烦缠身。
最近的一系列迹象都表明,监管部门和特斯拉之间“终极对决”的摊牌时刻,可能快到了。L2 + 智能驾驶落地的规则和前景,走到转折点。
“伊隆模式”引来调查
最近马斯克直播测试 FSD V12 能力,可谓是吸引了好一波热度。
直播视频已经有超过 1100 万人在线围观,一时间关于自动驾驶、端到端解决方案、神经网络的讨论更是层出不穷。
视频全程最炸的点,就是 45 分钟的车程,马斯克只出手干预了一次。其余时间里,马斯克都只是坐在主驾驶位上端着手机直播。
但从无需握方向盘、系统也没发出提醒可以看出,这或许也在明示,FSD 确实有一个隐藏模式 ——“伊隆模式”(Elon Mode)。
实际上,不久前就有黑客在系统后台发现了这种允许长时间脱手,也没有任何驾驶员行为监控的“伊隆模式”。
正常情况下,FSD 要求驾驶员双手不能离开方向盘,还要施加一定作用力,且目光要保持专注。
一旦系统检测到手离方向盘或视线偏离,会发出安全提醒,提醒达 5 次后将失去 FSD Beta 的使用资格。
但在启用伊隆模式后,系统会关闭方向盘提示功能,脱手状态下也不会震动方向盘。这也和直播过程中,就算马斯克手没握住方向盘,FSD 系统也没发出安全提醒是吻合的。
马斯克的炫耀,还不止直播。
这两天,他又在推特上兴致大发, 公开说他认为没有任何驾驶员监控警示的智能驾驶系统,才是好用舒服的系统 。
老马上头,紧盯着特斯拉的监管机构自然特别关照。
美国国家公路交通安全管理局(NHTSA)又发起了一项针对特斯拉的新调查。
NHTSA 担心现有特斯拉车辆都能用“伊隆模式”。并且既然公众都知道该模式的存在,可能会让更多司机尝试激活它,从而导致司机更加注意力不集中,并且无法监督自动驾驶系统的使用情况。
因此,NHTSA 要求特斯拉提供关于“伊隆模式”的一系列信息,否则将面临每天高达 2.6 万美元(约 18.95 万元)的罚款。
目前并不清楚特斯拉是否回应了 NHTSA。
但这还仅仅是特斯拉自动驾驶麻烦缠身的其中一项。接下来的这个,才更为致命。
特斯拉车祸命案,马斯克被要求作证
这起案件的核心是一起 2018 年发生的事故,一位 18 岁司机驾驶的 Model S 速度失控,导致司机和一名乘客死亡。
事故原因是超速和失控, 特斯拉被起诉的原因则是遇难者家属认为,特斯拉电子限速根本没起作用,特斯拉虚假宣传 。
而在最近,审理这起案件的法官批准了一项命令,马斯克被要求出庭作证。他将接受长达 60 分钟的质询,关于他对与此次事件有关的特斯拉技术所做出的宣传。
这起案件之所以被热议,有这么几点。
首先是案情本身技术层面,电子限速功能,本身就和智能驾驶紧密相关。比如 L2 基础功能的定速巡航,以及被动安全机制 AEB 需要限速器的数据来明确激活范围条件。
另一个层面,案件本身造成严重后果,跟特斯拉之前一系列直接由智能驾驶系统导致的事故相关联,都直指 L2 系统普及过程中的安全和可靠性。
但 AI 技术本身具有复杂性和黑盒性,这也就使得一系列有关特斯拉安全事故的诉讼,控辩焦点转移到了“虚假宣传”。
即特斯拉明知有隐患,宣传时绝口不提,还有意误导用户能够“全自动驾驶”。
之前的案件审理中,特斯拉 AI 负责人已经出庭承认了特斯拉内部曾经伪造过自动驾驶安全视频,并且明确指认就是马斯克亲自下的令。
而现在,关于特斯拉自动驾驶的争议安全拉锯战,终于要到了最后对决 —— 马斯克被要求亲自出庭作证 。
这也是这诉讼被广泛关注的关键点。
如何解读
特斯拉走到了退无可退的时刻,所有的闪转腾挪手段基本用完,司法的取证手段,已经触及这个科技巨头的核心和灵魂 —— 马斯克本人。
首先,老马不能在庭上撒谎作伪证,这样做的后果,可能更加严重。这也是之前特斯拉自动驾驶负责人“和盘托出”的核心原因。
老马若出庭承认了“虚假宣传”,那么针对特斯拉的判决很有可能是不利的。
首先特斯拉的品牌形象会遭受重大打击,产品宣传研发节奏也会被打乱甚至是中断。
而作为自动驾驶技术探索的领军和风向标,特斯拉的“地动山摇”,会影响整个智能驾驶普及落地的前景。
所以马斯克目前也在想方设法利用法律条文互相制约,避免自己直接出庭 。
纵向来看,特斯拉脱手模式被调查、相关命案审理进入关键期,表明 L2、L2+、L2.5 等等这些目前如火如荼的智能驾驶落地普及,已经到了一个关键转折点。
首先无论是高阶自动驾驶,还是目前普及的智能驾驶,都不可能做到 0 事故。但这项黑科技的意义在于,系统整体可靠性超过人类,带来的实用价值和整体交通事故率的下降。
面对使用过程可能出现的事故,车企应该用科学的数据来证明系统的可靠性、司法要有一套明确的责任划分方法,商业上还得有相应的保险赔付机制,把黑科技纳入合理合法的商业经营活动中。
这些高阶智能驾驶系统推进落地时,未能形成量化标准的问题,亟待解决,国内和北美面临相同情况。
所以,最终法院又是如何界定责任方,最后案件判决和赔偿的结果又是如何,对于国内来说,都有借鉴意义。
参考链接:
https://electrek.co/2023/08/30/tesla-autopilots-elon-mode-draws-attention-from-regulators/
https://www.reuters.com/legal/litigation/teslas-musk-appeals-order-requiring-his-testimony-fatal-crash-lawsuit-2023-08-30/
来源:IT 之家