欢迎关注Ó“新浪É科技”的微信订阅号:techsinąc;a
欢迎关注“新浪科技”的微信订阅号:techsina„◯
ì 文 |ઽ ⓜ金磊 丰色
♣ 来源:量子位
一场针‾对્特斯拉的调查Ċa;,在社交媒体上掀起了轩然大波。
Φ 甚至有网友用“史诗级🙀”来形容这દ次调查的发现:
这份调查来自美国高速公路安全管理局(NHTSA),而在曝光的文件੧中,有一句话显得格外醒目¦:
Autopi❄lot aborted vehicle control less than one second prior to the fiⓡrst impact.
在撞击前不到1秒钟,AutΜopilot中止了对车辆Ε的控制。ચ
” NHTSA发现的这个事,宛如向民众投掷了一枚Ρ重磅炸ਊ弹。
因为它“就好比“车在撞到你之前,机器人才把方向盘交到你手上”……
然后∴许多网友就«纷纷展开了⌋质疑:
如此设计,特斯拉就可以否认事故a0;是因▣为Autopilot了◊?
ª
啊,这ધ……≡
事Ċc;故前不到一秒,b2;把方向盘←交到你手上
NHTSA“对特Œ斯拉的调查自去年8月就已经开始。£
&#ffe1;展开调查的直ઍ接原因,是有不止一辆特斯拉在开启自动驾驶系统Autopilot的情况下,闯入已有事故现场,撞上明明早已停在路边的急救车、警车或者出事车辆。ο
不查不知道Π¨,一查吓一跳。…
他们发现,在16起这样的事故中¨,在碰撞发生之前,大多数车辆的Autopilot都激活了前向碰撞警告(FCW)。随后大约一半车辆的પ自动紧急制动(AEB)也进行了主动θ干预。
µ 不过最后都失败了(有一人•不幸死ⓓ亡)。
可怕的是,平均而言,这16起事故中,AutopilotΧ都是在汽车发生实际撞击前不到一秒才中止了控Μ制。♦
ਫ
ä 而这,完全没有给够人类司机接手的时间。
‰ ▒事故视频显示,人类司机基本上在碰撞前8秒都注意到了前方的已有事故现场。
但其中11起事故的法庭数据显示ࢵ,在碰撞前2-5秒内,没有人类驾驶员≅采取回避措施,虽然他们都按照Autopilot的要求,把手放在方向盘上。Āe;
或许大多数驾驶员彼时彼刻仍然“相信”Autopilੋot——其中有9辆车的驾驶员在碰撞″前的最后一分钟内都没有对系统发出的视觉警报或提示音警报作出反应。
ⓡ
૯ 不过也有四辆车ૄ根本就没给出任何警报。
现在,为Τ了进一步摸透Autopilot和相关系统的安全性(究👽竟能在多Β大程度上破坏人类司机的监督从而加剧风险),NHTSA决定把这一初步调查升级为工程分析(EA)。
并将η涉及车辆扩大到特斯拉现有所有四种车型:Model S、Model∃ X、Modb3;el 3和Model Y,共计83万辆。
而此调查结果一经曝光,就开始有િ受∋害者现身说法ਜ。
一位用户就表示,早在2016年的时候,她的Model S也是在变道时撞上了停在路边的一辆车。但特斯拉却告诉她,这是她的错,因为她在撞车前ˆ踩下了刹车,导致Autopilot脱离了控制。
该女士称,👿可是这时系统发出了警报了呀。等于我怎Ì么做都有错呗,我œ不踩刹车又得赖我不注意警报。
不过৻☻马斯克并未就此事作为回应¬,只是恰巧在网友爆料发生后6小时,发了一条推特,扔出了NHTSA早在2018年对特斯拉的一个调查报告。
该报告称特斯拉的Moµdel S(2014年出产)和Model X(2015年出产)经NHTSA先前的所有测试,就已经证明这两种车型是所有车中发生事故È后受伤概率最低的。
现在他们又发现,新出的Model 3(201∋8τ年出产)居然又取代Model S和Mod૮el X排为了第一。
这是对前Η几ગ日上海特斯拉车祸中“车毁人未受伤”事件的回应。
有意思的是,就Ê在大家都在声讨特斯拉自动驾驶这么不ⓝ靠谱时,有人站了出来,称大家黑特斯拉黑“魔怔”了吧。
实际上,特斯拉在事故发生1秒前中断Autopilot并不会将锅甩给人类,他们在统计特斯拉事ૉ故时,只要碰撞发生时5秒内Autopilotœ在工作,就会把责任算给AutopilÃot。
Ö ਖ਼而后,特斯⌉拉官方也出来证实了这一规则。
不过,虽说¾人类不用背锅了,但事故发生1秒前才将自动驾驶切断这一“骚操作”,还是无法改变人类驾驶员来不及接过方向盘的事实ⓘ。
Autopil♤otÀ,·到底靠不靠谱?
在看完NHTS…A的∴调查结果后,我们回头来看看这次舆论焦点的Auto◊pilot。
Autop૮ilo“t是出自特斯拉的一套高级驾驶Á辅助系统(ADAS),处于国际汽车工程师学会(SAE)提出自动驾驶等级中的L2。
∗ (SAE将自动驾驶分为了六个▣等级,从L0至L5)è
根据特斯拉官方的描述,Autopilot目前具备的功能包括在车ੋ道内自☎动辅助转向、加速和ઢ制动,自动泊车,以及从车库或停车位“召唤”汽车等。
d3;
那么ξ这是否意味着驾驶员可以Ù完全“托管”了呢?
∫¦ 并非如此。β
特斯拉目前阶段的Autopilot只是能起到“辅助«”的作用,并ⓒ非是完全自动驾驶。
而且还需要驾驶员“主动”、ય“积极”地去监督AutopËilo±t。
ৄ 但在官方介绍中,特斯拉对于“全自动驾驶”的能力也做了些许的Āf;描述ધ:
所有新款特斯拉,都具备未来几乎所有情况下ભ完全自动驾驶所需的▒硬件。
能够在不需要α驾驶员的情况下,进行短途和长ã途的旅¬行。
不过要想让AutopiΛlot实现上面的Κ这些目标,很重要的一点就是在Āe;安全性方面远超人类。
在这一方面,特斯拉表示已▣经在数十亿英里的实c8;验中证明了这一点。
而且马斯克也不止৻一次地Ċc;对特斯拉的安全性发声:
特…斯拉全自动Ąf;驾驶的安ࢮ全水平远高于普通司机。
Υ 但事实↑⊇是这样吗?
暂不论特斯拉和马斯克给出的评价,单就从现实角度出发,特æ斯拉的Autopilot在安全性方 面૪可谓是饱受的争议。
例如º屡见ਠ不鲜的“幽灵刹车”事件,便将其再一次又一次推👿向舆论的风口浪尖,也是NHTSA展开这次调查的主要原因之一。
“幽灵刹车”,指的是👽当驾驶员开启特斯拉Autopilot辅助驾驶功能以后,即便车辆在前方ⓦ没有障碍物或者不会与前车发生碰撞的前提下,特斯拉车辆会进行非必要的ਖ਼紧急刹车。
这就给驾驶员以⊄及道路中的其它车辆带ö来巨大的安全隐患。ਗ਼
不仅如此,若是∩细扒与特斯拉这家公司相关的热点事件,不难发现有许多都是与AutΦopilot的安全性相关:
那么NHTS↓A对此又是怎么ö看ƿ的呢?
在这份文件中NHTSA提醒,目前市面上没有完全自动驾驶的©汽车,“每辆车的都要ੜ求驾驶员在任何时间都要处于控制状态,所Ø有州的法律都要求驾驶员对其车辆的操作负责。”
至于这份调查Ω将来会对特斯拉造成什么影Ρ响,根±据NHTSA的说法:
如果存在与安全相关ⓤ的缺陷,有权向制造商发出“召ⓐ回请求”ਲ਼信。
……±
થ À″完整报告:
httpsⓗ:/⋅/static.nhtsa.gov/odi/inv/2022/INO©A-EA22002-3184.PDF
િ
参考链接♦:ઘ
[1]https://twitter.com/muttgomer◐y/status/1535353ⓘ4549059ⓓ17446
[2]ht∞tps:ⓠ//twitter.com/MattPotterÑ/status/1535753166880444416
[3]https://fortune.com/2022/06/10/elon-mⓡusk¨-tesla-nhtsa-investigation-traffic-safety-autonomous-fsd-∪fatal-probe/
[4]https://www.caranddriver.com/news/a402„60652ⓢ/teslas-autopilotà-nhtsa-investigation-recall-possible/
[5]https://પwww.tesla.com/aćd;utop¯ilot
[6]https:/ⓟ/twitt👽er.com/elonmusk/status/1ϒ345208391958888448?lang=en
[7]https://www.cbsnews.com/news/tesla-safety-compla૩ints-phantom-Õbraking-probe-nhtsa/ੜ
¦
(声明:本文仅代表作者观点,不代表新浪网立场。)
Ċc;
文章关键词:
网络文化
ચ › ò
用微ৄ信扫描二维码
分享至好ਗ਼◐友和朋友圈
\’ + ⓝ_substr(uids[i].nameì, 0, ࢮ14) + \’
\’ + _substr(uids[i].ોv_d0;reason, 0, 16) + \’
新浪科Ô技¤意ਊ见反馈留言板
400-κએਖ਼052-0066 欢迎批评指正
CopΘyright 👿© 1996-2022 SINAĊb; Corporation
All ŅRights Rese⌈rved 新浪公司 版权所ⓚ有