自动驾驶出错的原因(自动驾驶汽车存在问题及解决)

自动驾驶 1080
本篇文章给大家谈谈自动驾驶出错的原因,以及自动驾驶汽车存在问题及解决对应的知识点,希望对各位有所帮助,不要忘了收藏本站喔。 本文目录一览: 1、湖南一车主称小鹏汽车自动辅助驾驶失灵,事故发生的主要原因是什么?

本篇文章给大家谈谈自动驾驶出错的原因,以及自动驾驶汽车存在问题及解决对应的知识点,希望对各位有所帮助,不要忘了收藏本站喔。

本文目录一览:

湖南一车主称小鹏汽车自动辅助驾驶失灵,事故发生的主要原因是什么?

是因为辅助驾驶功能突然失灵。

湖南一车主称小鹏汽车自动辅助驾驶失灵,事故发生的主要原因是什么?

近日,湖南岳阳小鹏汽车车主邓先生称,他在国道上行驶10多公里后,突然遇到一辆轿车在路上侧翻,没有任何报警和减速。车直接撞了上去,发现异常后紧急踩刹车,车没有反应。同时根据车主提供的行车记录仪显示,撞击前的加速度值有所上升。邓先生自称自己开车7年多了,还是偶尔会做噩梦。针对此事,小鹏汽车售后体验专员表示,车辆说明书上写的是固定物体识别故障概率比较大,愿意延长保修一年,但被邓先生拒绝了。事实上,高速车辆上的自动辅助驾驶系统对静止物体的识别一直是行业内的难题。之前也有很多其他品牌的车主投诉过。自动辅助驾驶开启后,追尾了高速前方静止的车辆。然而,目前各大车企依然没有给出更好的解决方案,它们只能提醒车主在使用时密切关注前方路况。

车主们还是需要主动驾驶

之所以会这样,是因为小鹏提供的自动驾驶技术本身就是辅助驾驶功能,我们无法用这种辅助驾驶功能直接代替主动驾驶行为。新能源汽车刹车事故的新闻下,很多人会直接把矛头指向新能源汽车的技术问题,但我觉得大家没必要关注这个细节。因为新能源汽车的自动驾驶技术并不成熟,没有哪个品牌的新能源汽车会想让车主完全放弃主动驾驶的。

车主还不能过分依赖这些功能

有些车主可能会把自动驾驶技术当成百分百安全的技术。当然,其实车主可以在个别时段临时使用辅助驾驶功能。但以目前的技术水平,车主还不能过分依赖这些功能。

特斯拉自动驾驶经常会发生意外事故,究竟是因为什么?

特斯拉又发生了一次事故!

据国外媒体报道,几天前,美国底特律的一辆白色Y型轿车在T型路口撞上一辆大型卡车。 Y型车的前部很低,直接进入卡车底部,车辆严重受损。

事故发生在当地时间上午3:20左右。事发时,一男一女在车上受重伤,被送往当地医院救治。卡车司机没有受伤。

发生四起事故,两人死亡,两人受伤。为什么特斯拉总是撞上一辆白色卡车?

特斯拉最近在底特律撞上一辆白色卡车

在2016年和2019年,特斯拉在美国发生了两次致命事故。在打开L2级自动驾驶系统的同时,车辆在垂直方向撞到一辆大型卡车,最终导致车辆上人员丧生。

2020年,台湾的Model 3也撞上了一辆以高速翻转的卡车。

在2019年的特斯拉事故车中,驾驶员不幸死亡

发生四起事故,两人死亡,两人受伤。特斯拉为什么总是撞上一辆白色卡车?

2020年事故现场监控画面

这三起事故具有高度相似性。因此,在特斯拉发生另一起类似的事故后,它也引起了极大的关注,与此同时,它继续引发了一个令人深思的问题:

为什么L2自动驾驶系统被称为最强大的量产汽车,却无法避免白色卡车?

答案不是特斯拉的技术不强,也不是特斯拉的白色卡车或“天敌”。

这是因为在当前以“相机+毫米波雷达”为主要传感器的L2自动驾驶方案中,检测静态车辆是一个世界性的问题。每个系统对于固定式车辆来说都是令人头疼的问题。

例如,今年2月,一台蔚来ES8打开L2自动驾驶系统进行巡航时,撞到了行人和静止的五菱宏光。 (请参阅商品《蔚来ES8开L2撞人又撞车,为啥装24个传感器都躲不开?》)

1.尚未确认特斯拉是否已打开L2

如前一篇文章所述,该事故引起了一些中外媒体关注的根本原因在于,特斯拉的车型经历了严重事故,导致L2撞上卡车并杀死了驾驶员。

但是,从当前的外国媒体报道和Twitter上知情网民的新闻来看,事故发生时尚无法确认车辆是否开启了L2自动驾驶系统。

事故现场

因此,此事故的原因与特斯拉的L2自动驾驶系统无关。

当然,就责任分工而言,即使是2016年和2019年发生的两次致命卡车撞车事故也是驾驶员的问题。

2016年类似的事故现场因为特斯拉的AutoPilot系统属于L2级自动驾驶,所以其中一个仅在有限的场景下工作,而另一个则是监视路况并准备接管。

例如,当在垂直方向上有一辆大卡车时,这是一个不在系统中工作的场景,驾驶员需要及时接管车辆。

去年3月23日,美国国家运输安全委员会(NTSB)发布了有关两个Tesla AutoPilot L2自动驾驶系统的最终报告。报告显示,在这两次事故中,驾驶员过度依赖Titla L2级自动驾驶,从而出现了意外现象,最终导致了事故。

特斯拉有2伤2伤,总是撞上白色卡车吗?

NTSB在其网站上发布了最终调查报告

NTSB认为,卡车司机在十字路口不设停车位,而是直接驶入高速公路,属于危险的驾驶行为。特斯拉Model 3驾驶员过分依赖Testla L2自动驾驶技术,导致无法集中注意力。 NTSB最终确定了事故原因,原因是特斯拉AutoPilot L2自动驾驶系统在驾驶员下车时没有及时提醒,并且设计条件不一致,最终导致了撞车事故。

其中,事故是2019年3月1日MODEL 3撞上卡车导致驾驶员死亡的事故。

即使没有L2,Nasla的AEB自动紧急制动系统为什么会出现故障?

特斯拉的自动包围曝光系统可以手动关闭,因此,如果驾驶员关闭自动包围曝光,那么该系统自然将无法正常工作。

二,事故可能性分析传感器的配置

从美国监管机构的报告中可以看出,卡车的垂直碰撞显然超出了特斯拉L2系统的工作范围,加上驾驶员未能及时接手。

因此,问题是,为什么自动驾驶仪系统(被公认为“量产汽车中功能最强大的L2”)不能避开一辆大型卡车?

这与车东关于威来ES8事故的先前报告的结论是一致的:事故的根本原因是“摄像头+毫米波雷达”的传感器配置,很难识别静止的车辆或行驶缓慢的车辆。

与Model 3一样,Tesla Model Y配备有8个摄像头,1个大陆毫米波雷达和12个超声波雷达。

特斯拉传感器配置

当打开L2级自动驾驶系统(自动驾驶仪,NOA或EAP系统)时,车辆主要依靠前视摄像头和毫米波雷达来检测前方的物体。

尽管特斯拉目前有3个摄像头,但它不使用立体视觉。这三个相机主要具有不同的焦距和不同的视场。因此,总的来说,特斯拉与大多数当前的L2自动驾驶系统相同,都是视觉+毫米波雷达传感器解决方案。

无论是使用基于规则的视觉算法还是深度学习技术,在感知外部物体时视觉都永远不可能100%准确,甚至经常会出错。

例如,当作者自己的特斯拉走出地下室时,他会莫名其妙地将隔离墙识别为公共汽车。另一个例子是最近流行的Douyin视频,其中特斯拉莫名其妙地识别了空墓地中的行人。

特斯拉在无人墓地认出行人

另外,还存在将公交车上的人的照片识别为行人并将路侧广告屏幕上的停车标志识别为真实停车标志的情况。

依靠反射的毫米波来检测目标的雷达不会被“听到”,如果前方有东西,就会有回声,如果什么都没有,就不会有回声。

正是由于视觉错误的可能性较高,雷达才更加“可靠”,因此大多数L2系统将在视觉的基础上引入毫米波雷达的检测结果以进行验证。

如果摄像头检测到前方车辆,并且雷达也确认了前方车辆的位置和速度,则可以执行制动操作。

如果将这些错误识别的结果用于做出驾驶决策,则显然会出现更多问题。特斯拉很自然地知道这一点,因此在实践中他不会对纯粹的视觉感知结果做出反应。

因此,这起事故的原因非常清楚。不管视觉上是否能识别前方的车辆,毫米波雷达都不能给出结果,因此最终系统没有响应。

第三,毫米波雷达天生就有缺陷,害怕固定式车辆

毫米波雷达不是“闻所未闻”的,那么为什么它不能识别前方的卡车呢?

东南大学毫米波国家重点实验室的毫米波雷达技术专家,毫米波雷达公司的Falcon Eye Technology的首席技术官张辉反复分析了背后的原因。

从工作原理的底部开始,毫米波雷达主要依靠多普勒效应来感知运动目标。多普勒效应的特征在于,动力学是最容易感知到的动力学,动力学更难以感知到静力学,而静力学则极其难以感知到静力学。

这是因为如果前面的车辆是静止的,则目标信息容易与地面杂波混合,并且需要某种算法来将目标与目标区分开。如果它是一辆正在行驶的汽车,则根据其多普勒信息,最好检测目标。

因此,如果卡车静止不动或行驶缓慢,则雷达算法无法知道前方有物体。

但是这种可能性并不大,因为主要的雷达公司已经制定了一些可以识别静态物体的感知算法。

真正的困难是当前的雷达没有海拔信息,空间分辨率也不足。

没有高度信息,这意味着雷达很难区分横穿道路的路标和桥下的汽车。空间分辨率不足意味着两个非常接近的物体的回波将混合在一起,并且很难知道有多少个目标。因此,在雷达公司和一些汽车公司获得雷达反射数据之后,它们将通过算法直接过滤掉一些静止的物体或怀疑是静止的物体,以避免错误的反应。

例如,在这种事故情况下,由于卡车沿模型Y的垂直方向行驶,如果同时行驶速度非常慢,则由于缺少径向多普勒分量,雷达识别算法可以轻松对其进行过滤列为静态目标。

如果毫米波雷达能够滤除目标,则无论是否可以看见卡车都无法正常工作。

结论:汽车公司仍在优化L2自动驾驶

回到这次事故,尚未确定特斯拉是否开启自动驾驶系统,事故原因仍需当地警察和特斯拉官员调查。实际上,即使打开了L2级自动驾驶仪系统,白色卡车的场景还是有些极端。对于当前量产的L2自动驾驶系统,仍然存在许多无法处理的情况。

鉴于L2级自动驾驶系统中存在的各种问题,汽车公司也给出了自己的解决方案。一方面,通过“阴影模式”和道路测试等方法对自动驾驶算法进行了持续优化,从而使自动驾驶系统继续趋于成熟,同时不断提高了L2自动驾驶的功能。另一方面,随着硬件成本的下降,许多型号都计划搭载Lidar以避免类似事故的发生。

理想汽车自动驾驶失控什么原因

自动驾驶技术有时候并没有人们想象的那样聪明。一些人类可轻易识别的“小把戏”却能完全迷惑自动驾驶汽车。比如,在交通标志上贴一些恶意贴纸或涂鸦,就有可能导致自动驾驶汽车错误地将停车标志识别为限速标志。

失控科普

路面污渍在现实生活中很普遍,较难引起人类驾驶员注意。研究人员用对抗性神经网络生成误导性的图案,并将其伪装为路面污渍,使攻击更加隐蔽,让这种脏路补丁误导ALC系统。

研究人员分别在微缩场景、自动驾驶模拟器和现实中的真车上测试了“脏路补丁”攻击,均成功带偏了ALC系统,造成车辆碰撞事故。在对一款配备了ALC系统的真车进行效果验证时,测试车辆在10次试验中的碰撞率达到百分之百。

论文通讯作者、加州大学欧文分校助理教授陈齐说,ALC系统如今被广泛应用于各种车型中。尽管方便,但该系统需要具有较高安全性:当系统做出错误的转向决策时,人类驾驶员可能没有足够的反应时间来防止即将发生的安全隐患。

湖南一车主称小鹏汽车自动辅助驾驶失灵,导致失灵的原因是什么?

对于小鹏汽车智能辅助驾驶失灵问题的原因,可以通过小鹏汽车在关于辅助功能测试的视频中可以看出,小鹏汽车在智能辅助功能模式下确实存在不能适应全路况的情况。比如路上有横停障碍等这些特殊情况,需要车主继续接管车辆。而这次邓先生遇到的横停事故,正是宣传视频中提到的现象。

4月11日,邓先生驾驶小鹏汽车行驶在国道上,当时汽车处于智能辅助驾驶状态已经行驶了十几公里。突然前方路上出现因事故侧翻的轿车,但是小鹏汽车也没有驾驶和报警。邓先生发现后紧急踩刹车,但是汽车没有减速,反而加速,出现了二次事故。事故发生后小鹏汽车工作人员进行了解释。

通过有关的解释可以就事故原因归纳为两点:小鹏汽车的智能辅助驾驶系统确实存在事故隐患。小鹏汽车的自动辅助驾驶功能不等同自动驾驶功能。在一些特殊情况下是不能使用的。但是在遇到这些情况它可以发出安全提示或者减少行驶,来避免事故发生。但是邓先生驾车行驶在国道上时,在出现路上有横行侧翻汽车时,辅助系统并没有发出提示和减速。在邓先生发现后踩刹车,出现加速情况。不过在这次事故中邓先生也是有一定责任,没有认真读客户操作手册,在使用辅助驾驶功能时,需要时刻关注路况和周围情况,当出现横停等特殊情况下,汽车应该结束辅助驾驶功能而改为手动驾驶。但是在辅助驾驶情况下,踩刹车也是应该用效果的,通过踩刹车,结束辅助驾驶。

汽车配置自动辅助驾驶功能虽然可以减缓驾驶员的疲劳性,但是任何功能都会有局限和隐患性,司机在开车的时候还是需要注意周边环境。当意外发现时,可以在第一时间作出决定。

汽车辅助驾驶频出交通事故,是什么原因导致的?

汽车辅助驾驶频繁出现交通事故,大家还是要引以为戒,到底是什么原因导致的?或许有很多汽车辅助功能并没有得到完善,有很多静止的物体根本就识别不出来。毕竟辅助驾驶它是起到辅助作用,不可以完全代替人类的眼睛。辅助驾驶采用适应循环,他是通过雷达和视觉的传感器来感受目标,有的时候就会出现差错。

特别是静止物体它就没有办法识别,没有办法区分物体,就会对它的系统受到干扰,一时半会儿就没有办法解决目的地。希望大家在路上行驶要禁止使用辅助驾驶功能,毕竟车辆频繁出现差错之后,就会带来很严重的交通事故。很多标志牌本来是存在障碍,也会导致辅助驾驶经常误踩刹车。其实这个功能并不是很好,从频繁发生交通事故就能够看出对驾驶者没有任何好处。

随着时代的发展,有很多人在购买汽车的时候都比较喜欢新功能。所以不少商家也就将这个功能宣传的比较大,也扩散它的功能使用。误导消费者觉得这种自动驾驶很安全,但针对目前现象来说,辅助驾驶还是要加强管理,不要误导消费者,一定要在交通安全的情况下去行使。毕竟生命不是儿戏,车主一定要注意安全不能盲目使用。

就目前来说,特别名牌的辅助功能驾驶也不能代替人,每个司机应该把车辆控制在自己手中,避免发生没有必要的意外。如果躲避不及时,风险就会很高。大家工作很劳累,比如说很疲劳的时候,建议还是要去服务区,或者是及时停靠在不影响交通的地点休息。不要疲劳驾驶,希望行驶过程中每个人都应遵守交通规则,要维护社会和谐,减少交通带来的伤害。

自动驾驶出错的原因的介绍就聊到这里吧,感谢你花时间阅读本站内容,更多关于自动驾驶汽车存在问题及解决、自动驾驶出错的原因的信息别忘了在本站进行查找喔。

扫码二维码