小鹏汽车撞人

发布日期:2022-08-12 20:19:16

欢迎关注“新浪科技ã”的微信«订阅号:techsi☏na

  &#263e;欢迎关注“新浪科技”的微信订阅号:techsinaê ⌋

  文℘/‌黎£明

  来源θ/深૞途(ID:shent☜ucar)

Ï  8月10日的一起交通事࠽故,让自动驾驶ડ又成了争议的焦点。

  一辆小鹏P7在高架路上,追尾撞上了一辆停靠∫在路上的਩故障车,站在前车车尾的人被撞飞®身亡。

  网传Ê小鹏车主的聊天记录称,他当时开启了驾驶辅助系统,但车辆在撞击前没∪有发出任何警告,也没有做出刹&#261c;车动作——车辆没有识别出前方路况。

  小鹏方面回应媒体称,交警部门已经立案处理,小鹏∩将全力配合相关部门进行事故调查,并协助客户处理后ધ续相关事宜。小鹏没有回应车祸时车主是否开启了辅助驾驶功能。’

  又一次血的‌♩教训,↑引发了人们对自动驾驶安全性的担忧。

  在半年前,小鹏汽车刚发生过一起类似事故。一位湖南岳阳的小鹏P7车主,在开启辅助驾驶功能的状态κ下,撞上一ੜ辆前方横停的侧◈翻车辆,幸好没有造成人员伤亡。

  再往前推,一年前,蔚来ES8一位车主,在沈海高速涵江段开车撞上一辆公路养护车,不幸逝世。根据当时的报道,知情∴人士称,他启动了辅助驾驶功能,但车ℑ辆未能识别车道内前Φ方的桩桶和养护车。

 à 故障车、侧翻车、养护车,是这三起事故爆发的导火线,它Ð们都是ૣ静止物体。

  对静止物体的识别,直到今天依然是自动驾驶的一大难题。这个难题在▩过去已经¿造成 了多起车祸,类似的事故在未来或许还会继续出现。

  自௄动驾驶为什么就是识别不了静止物体?对于这项新技术,还值得车主们继È续信્任吗?

੓ &#263a; 谁酿成了这场❄车祸?

  小鹏P7的પ这起事故Ξ,目前警方还没有给出定论,但结合公开的路面视频和相关资料,我们尝试大致还原事件经过。

  事故中涉及到三方——小鹏P7车主、小鹏的辅助驾驶系统、故障车。事故的发生,是因为前车©发生故障,停在了高架桥路段最左侧的快车അ道上,在车道上正常行驶的小鹏P7,没∃有刹车或避让,发生了追尾。

  问题Ï是,小∇鹏P7为什么没有发现∞前面的故障车?

  网传小੠鹏P7车主的说法是,ય他开了辅助驾驶系统,系统没识别,正巧当时自己还分神了¦。

  在高架桥路段,车道上突然出现一个静પ止物੥体,这是自动驾驶中最容易出&#263a;事故的场景。而本次事故的场景比正常情况还要更复杂一些。

  首先,前车是停在高架桥最左侧的🙀快车道上,车道上的ઘ车辆车速非常快,后车要避让的话只能向右侧车道变道;其次也是更关键的,前车停下后,车主下车打૥开了后备箱,后来又关上后备箱站在车尾。

ì  有分析认为,前车车尾站人的状态,可能导致车辆无法识别。因为小鹏P7要识别远方前车,主要靠传感&器识◐别前车尾盖和尾灯特征。

  不过在ð这起←事故里,小鹏P7不仅没有识别出前方车辆Ρ,也没有识别出车辆后的人。

  摄像μ头和毫米波雷达,是辅助驾驶ν系统中最重要的两个传感器。2020年初推出的小鹏P7,XPILOTਠ 2.5系统搭载了5个摄像头、3个毫米波雷达,XPILOT 3.0系统升级成14个摄像头、5个毫米波雷达。

  摄像头跟人眼一样,看到的是图像,毫米波雷达看到的是波段,利用多普勒现象来感知物体的相对速度和角度。小鹏P7通过安装在前风挡玻璃上的摄ó像头探测车道线,车辆前向毫米波雷达探测前车距离和障碍物ટ。≤

  按照网传小鹏P7事故车主的说法,他那辆车是XPILOT 2.5系ξ统。一位汽车行业人士对深途分析,XPILOT 2.5的辅助驾驶配置,摄像头可以识别目标类型,ó但是对于Ç行人的识别一般超过60公里/时的车速就都很难了;毫米波雷达会过滤掉静止目标,一般只有毫米波雷达和摄像头同时认为在同一点有静止目标,才会具备较高的置信度用于规控。

  如果按网传聊天记录,车主当时设定的车速ⓑ是80k³m/h,则已经超♪过了车辆感知系统对行人的识别范围。

  软件工程▒师“数据里奥斯”Î对深途说:“小鹏P7前车的状态,对于辅助驾驶系统而言肯定是更大的干扰。而且跟车速也有关系,车速越快计算反应越慢。”∀

  自动驾驶业内人 士刘菲鸿对深途分析,“从事故视频来看,那个场景对于辅助驾驶的感知任务来说是ੋ一个corner case,也就是目前落地的感知技术难以解决的场景。”૧

ç

  静态ਜ਼物体,为何成了高速路⊄“天坑”?

  为什么高速路ધ上的一个静止物体,会成为感知系统的coકrner case?识别出静止物,究竟难在哪?Ú

  数据里&#25d0;奥斯认为,车辆行驶时,系统并不是不能识别静止的物体,而是不能准确地将对本车行驶有影响和干扰的静止物体筛选出⊆来。“其实都可以识别出来,但是没办法判断到底要不要避让,因为道路上的这些静止物体不好标记,标记出来又很容易被误判。”¡

  这可以੘理解为:宁可不识别,θ也不能经常误刹车。“比起经常Ο幽灵刹车,识别不出来更容易宽容。”他说。

  这里涉及到的感知设备,就是χ我们在上文提到的摄像头和毫米波ੜ雷达。摄像头需要用机器学习来训练识别物体,毫米⊇波雷达靠电磁波的反射情况来识别测距。

  ¾但这两个传感器都有自己的×局限。对于摄像头而言,静态物体类别多,形态千差万别,需要大量的样本训练,而侧翻的卡车、打开后备箱的车尾、停在路边的养护车,都不是常见的样本,在训ι练不够的情况下就容易识别不了。

  比如著名的¡“白色卡车”→,特斯拉Σ曾多次与白色卡车相撞,因为特斯拉的辅助驾驶系统没有识别出卡车车身,而是错将其识别为天空,最终导致误判。

  毫米波ρ雷达“的局限性也很明ਠ显。车道上停放的汽车、金属标牌,以及一些非标的静止障碍物,都会因为雷达的分辨率、回波等问题导致识别失误。

  汽车的感知系统扮演的是人眼Ç的角色,人眼有一个特点,就是对运动物ξ体很敏感,毫米波雷达跟人眼一样具备这个特点,但对静止ⓖ物体比较容易“忽视”。

  “这是毫米波雷达的核心技术弱点。”和高资本&#222e;高级投资经理ï陈子颖对深途说,在她看来,毫米波雷达的角分辨率低,是行业一直想要突破的技术难点,雷达信号的分辨率会直接影响成像精度,看得清楚和看不清楚有很大×的差别。

  “一般来说天线越多,波束角越窄,雷达性能±越强,而增加天线的方式通常是M▣IMO(大规模阵列)方案和多芯片级联⊗的方案,但前者存在信号干扰的问题,后者存在级联数量有限的问题,所以角分辨率始终难以突破到1°以下。”她说。

  在技术没有突破的ⓜ情况下੫,对静态物体的识Þ别,会一直是辅助驾驶的一大痛点。

  理想汽车CEO李想曾说:“目前摄ળ像»头+毫米波雷达的组合像青蛙的眼睛,对于动态‰物体判断还好,对于非标准的静态物体几乎无能。视觉在这个层面的进展几乎停滞,哪怕是动态,车辆以外的识别率也低于80%。”

  李想说这段Ψ话的એ时间是2019年,当时特斯拉Model 3直接撞上℘一辆正在作业的道路清扫车,车主不幸身亡。如今三年时间过去了,情况似乎也并没有太大改观。

  技术上该如何解决←?©

  高速路上的静止物体,就像是自动驾驶路上的一只拦路虎,™时不时跳出ⓘ来吓人。这个问题该如何સ解决?

  刘菲鸿对深途说,问题可能不在静止上,而是在这些较为罕见的、低频出现的场景,比如高速💼路上有侧翻卡车,这种场景的出现的频率太低了。在目前的技术框架下Ÿ,瓶颈还是在罕见场景的数据量上á,而不在于传感器。

  他认为,目&#25c8;前的感知是基于઩数据驱动的,比如让系统识别猫和狗,猫的图片有20个,狗的图片有2000个,那么系统对狗的识别就会好⊇于猫的识别。所以一个场景“稀缺”,那么就是一个corner case。

  不过目前的技„术瓶颈在于,“虽然单个稀缺的场景数据量是少的,但稀缺的场景类别数却并不少。尴੦尬的地方ϖ之一就在这里。”

  按照Ρ这个逻辑,要让自动驾驶系统持઱续进化,就需要源源Ω不断“投喂”大量的数据,覆盖尽可能多的稀缺场景,让系统在学习中增强识别能力。

  这其实是特斯拉当前的方案。特斯拉一直坚持神经网络和机器学习,在算法上发力,而不是像国内的造车新势力那样堆料,增加传感器数量。特斯拉Model 3和Model Y的传感器配置,在相੭同价位车型中,属于偏低水平,但算·法弥补了ૉ传感器的不足。

  马斯ý克认为,靠纯视⋅觉方案,在数据足够的情ρ况下,特斯拉也可以变得跟人一样驾驶车辆,包括识别静止物体。

 ࣻ “这里面的策略是关键,因此特斯拉通过每一辆车做视觉数据采集,不断优化算法模型,会覆盖大部☻分场景,但还是存在无可预估的风险。” 国内一家计算机视觉上市公司的内部人士对深途૧说。

  风险的确是存在的ળ,直到现在,特斯拉&#266a;在静态物体的识别上也没θ有太大改进。

 å 陈子颖认为,多传感器融合是更安全的方案,因为物理层的局限很难完全突破,一旦遇到新的corner case冒出来,就又是人命关天的大事。特斯拉现在采取这样的方案,还是更多基于传感器的成熟度和成本角度考虑。“他们永远只用最成熟的方案,未来随着技术成熟和成本降੤低,我相信特斯拉¦也不会非要坚守视觉这条路径。”

  “先解决物理上的局限再谈数据的局限比较可行,就像要求盲人都能靠顺©风耳来Ψ识路,&#256d;这个难度岂不是更大。”她说。

  国内车企更多走了另一†条路——☜提升传感器数量和性能,α比如研发4D毫米波雷达,推动激光雷达量产上车。

  当年的特斯拉白色货车事故,👿车上用的就是传统缺乏高度信息的毫米波雷达,所以置信度低,远距离只能依赖图ℑ像传感器,最终难以摆'脱物理层的局限性造成车祸。

  随着4Dα毫米波分辨率提高,置信度上升,ã识别前方有高度2米的车厢后,这个信ˆ息会立刻反馈到决策系统提前做出刹车预判,整个安全性会高很多。

  激☏光雷‏达则提供了另一种可能。国内Ω的造车新势力在今年推出的新车型中,大部分都加入了激光雷达,比如蔚来ES7、理想L9、小鹏G9等。

  “未来传统毫米波雷达的缺陷会慢慢被4D毫米波જ补上,但是论精度,4D毫米波雷达始终不及激光雷达,所以毫米波雷达和激光‌雷达最ⓓ终还是会以互相冗余补充的方式并存。”陈子颖对深途分析。

  总体∏而言,要绕过静态物体这个“致命杀õ手”,辅助驾驶还有很长的ૣ路要走。

&#263f;

  辅助驾驶还ਯ值得信任吗੘?

ષ  每一次辅助驾驶事故,都给行业Ï敲响઻了警钟。但造成严重后果,不完全是系统的原因,车主也难逃其咎。

  在网传聊天记录中,小鹏P7ⓛ事故中的车主ࢵ说自己当时“分神了”,这是很致命的一&#260f;个错误。

  辅助驾驶不是自 动驾驶,再怎么强调都不为过。这项功能现在还不能解放司机的双手,起到的只是“辅助”作用。ρ车还得司机自己来开,遇到紧急情况要接管,出了事故司ਖ਼机要担责。

 ਲ਼ 去º年的蔚来车祸ⓩ之后,新造车行业冷静了许多,过去那些浮夸、不负责任的宣传变少了,风险提示加强了。

  比如新用户要开启小鹏的辅助驾驶系统,必须经过考试,在ï考题中就有提到,如果遇到低速或静☏止的清扫车、横停的事故车,系统有可能无法识别,应立即接管车辆。特斯拉、蔚来等车企也在用户手册中提醒,车辆前方的静止车辆或障碍物,系੥统可能无法识别和刹停。

  ♠但这些考试或提੫示,究竟对车主起到了多大的警示作ε用,很难评估。

  在网上,经常会有一些车辆开着辅Θ助驾驶高速飞驰的视频,车主拿着手机在发消息或玩游戏,还有人甚至坐在后排,સ完全让车自己开。这些人或许是出于炫耀,亦或是出于猎奇,但暴†露的是侥幸心理。

  这种侥幸心理的形成,建立在日常使用中建立的信任之上。或«许车主在平时开启辅助驾驶功能时,系统都有优异表现,甚至超出车主预期,但这并不代表系统就具备了应对ઽ所有极端场景的能力。而那些罕见的corner Ôcase,往往是在不经意间出现的,而且致命。

  “人ø工智能可以识别80%、90%,哪怕是99.999%ਨ,但达不到100%。但往往出事就是那0.00X%的不能识别造成的。这是AI的局限性。”一家自动驾驶公司内部人士对深途਩说。

  深途接触过多位Robotaxi安全员,他们坐在号称具备L4级无人驾驶能力的Robotaxi上,让车辆在测试运营路段自动驾驶,但随时做好接管准备。多位安全员表示,这个过程比自己开车还要累,因为需要注意力高度集中。૨“方向盘不在你手里,你不知道什么è时候就突然要接管,丝毫大意不得⋅。”

  罗马不是一天建成的,自动驾驶要真正大规模应用,无论是在技术还是法规上,都还有很多要突破的障♦碍。对ય于车主而言,这需要时ਪ间、耐心,更需要风险意识。

  无论车企再怎么宣传,车主都需要时刻⇓牢记,现在的自Θ动驾驶都是L2向L3无限逼近É的阶段,还不能完全依赖传感器去做决策。

  陈子颖Ξ认为,੓人作为主要驾驶责任人这个前提一定要明确,“否则૜就是拿自己或他人的生命当自动驾驶发展中的垫脚石,代价真的太大了。”

  *题图 来&#ffe1;源于@小૟鹏汽车。应受访者要求,刘菲鸿为化名。

Θ

文章关键词:
ૣ 网络文化
Ξ

用࠷微信扫描二维码
分→享至好友和朋友圈

\’&#25a0; + _substr(છu▤ids[i].name, 0, 14) + \’

\’ + _substr(uids[i].v_rea஻son, 0, ੆16) +ધ \’

聚焦&#256f;ç新造车、新出行,专注ⓣ深度内容。

新浪科Ε技意见પ反½馈留言板

400⊥-0ડ52-0066  欢迎批评指正

Copyright © 1996-2022 SોINAࢵ Corpoચration

All† ‹Rig☞hts Reserved 新浪公司 版权所有

关于

发表评论

邮箱地址不会被公开。 必填项已用*标注