特斯拉第一起自动驾驶事故-特斯拉汽车自动驾驶

tamoadmin 0
  1. 疑似特斯拉自动驾驶出错:未识别并道,直接撞向货车
  2. 特斯拉事故原因是什么?
  3. 车主上路实测特斯拉"全自动驾驶"撞上护栏

近日,一起处于自动驾驶状态的特斯拉Model X撞击护栏致驾驶员死亡事故再次将自动驾驶技术推到了风口浪尖。一下子又再次“引爆”了人们对自动驾驶技术的质疑。

s://iknow-pic.cdn.bcebos/203fb80e7bec54e7d980aa9db5389b504ec26ac1?x-bce-process=image/resize,m_lfit,w_450,h_600,limit_1/quality,q_85

这些年来,特斯拉在全球范围内累计卖出约28.7万辆车,但已知的因自动驾驶致死的事故已经达到了5起。首例就发生在中国河北邯郸,此事当时在国内引起极大轰动,事故中死亡车主的老父亲两年多来一直在通过法律途径为儿子讨公道,直到前一段时间特斯拉才勉强承认了事故是由自动驾驶系统引起的。

s://iknow-pic.cdn.bcebos/cb8065380cd791234e8224f7a1345982b3b780d7?x-bce-process=image/resize,m_lfit,w_450,h_600,limit_1/quality,q_85

除特斯拉外,其余还处于测试阶段的自动驾驶技术也常常发生事故,就在今年早些时候一辆Uber自动驾驶测试汽车才酿成了全球首例自动驾驶致行人死亡的。

特斯拉第一起自动驾驶事故-特斯拉汽车自动驾驶
(图片来源网络,侵删)
s://iknow-pic.cdn.bcebos/8718367adab44aed504c0e67bf1c8701a18bfb37?x-bce-process=image/resize,m_lfit,w_450,h_600,limit_1/quality,q_85

光是2018年前三个月,有据可查的因自动驾驶导致的事故就已经达到4起,其不靠谱程度之高,已经完全对不起“自动”二字了。

s://iknow-pic.cdn.bcebos/cf1b9d16fdfaaf510c8f313c805494eef11f7ac1?x-bce-process=image/resize,m_lfit,w_450,h_600,limit_1/quality,q_85

其实从理论上讲,按照目前的客观技术条件,实现“靠谱”的自动驾驶是完全可以实现的,但为何当下的自动驾驶技术却总是事故频发呢?最近美国专家给出了一个解释,答案让人大跌眼镜

s://iknow-pic.cdn.bcebos/b21c8701a18b87d6a3401b9c0b0828381f30fd37?x-bce-process=image/resize,m_lfit,w_450,h_600,limit_1/quality,q_85

经过对多起特斯拉汽车自动驾驶事故的分析,这位名叫吉姆麦克弗森的美国驾驶安全专家发现,事故发生时都有一个共同点,就是当天的阳光很强烈。在实际测试后,吉姆分析强烈的阳光会对自动驾驶系统的探测摄像头造成影响,导致摄像头成像模糊、失真甚至完全是一片白,因此自动驾驶系统会无法识别出前方路况和障碍,从而导致事故的发生。

s://iknow-pic.cdn.bcebos/b21bb051f81986184d535f0746ed2e738bd4e619?x-bce-process=image/resize,m_lfit,w_450,h_600,limit_1/quality,q_85

仔细一想确实如此,用过全景影像的人都知道,光线对汽车摄像头的影响非常大,尤其是清晨和傍晚太阳角度较低时,阳光直射到汽车某个角度的摄像头上,全景影像系统中那个角度的成像就会是一片白光。

s://iknow-pic.cdn.bcebos/060828381f30e92432a62cb240086e061d95f737?x-bce-process=image/resize,m_lfit,w_450,h_600,limit_1/quality,q_85

别说汽车上的摄像头了,就算是目前智能化程度和紧密程度最高的手机摄像头甚至单反相机,在面对阳光直射时也很难保证成像的还原度。

s://iknow-pic.cdn.bcebos/203fb80e7bec54e7d98eaa9db5389b504ec26ad7?x-bce-process=image/resize,m_lfit,w_450,h_600,limit_1/quality,q_85

美国专家给出的这个答案,看起来非常的简单且另类,但很有可能会成为人类解决自动驾驶技术缺陷的新思路。

疑似特斯拉自动驾驶出错:未识别并道,直接撞向货车

汽车的智能化是目前的大势所趋,但相比传统车企,造车新势力的胆子明显更大一些,以特斯拉为代表的造车新势力甚至能够实现特定场景下的“自动驾驶”,这也成为了特斯拉的最大卖点,否则没人会愿意为粗糙的组装工艺和塑料感满满的内饰买单。但俗话说“常在河边走哪有不湿鞋”,特斯拉Model?3最近在一场自动刹车测试中翻了车。

在近日某汽车厂商进行的自动刹车测试中,特斯拉Model?3在人横穿马路项目中出现了意外,面对移动的人,Model?3的AEB自动刹车毫无反应,导致人被撞飞。一般情况下,装有AEB自动刹车功能的车型在遇到物体横穿马路时或多或少都会进行制动,而Model?3却径直撞了过去。

从配置表来看,特斯拉目前在售的新车均会配备基础的驾驶功能,其中就包括了AEB自动刹车。但在上述测试中,特斯拉Model?3的AEB自动刹车面对人“无动于衷”,发生了碰撞,属实离奇。有网友调侃道:“因为它识别出是人”。

对于网络上流传的对比测试,特斯拉很快做出了回应,称“汽车行业检测专业性强,任何非正规官方检测且断章取义的,只会误导广大群众和消费者,且对整个汽车行业带来伤害”。但这一回应遭到了汽车大V闫闯的回怼。

事实上,这已经不是特斯拉的自动驾驶功能第一次出问题了。2018年3月1日,美国佛罗里达州一起严重,发生事故的特斯拉汽车在事故发生前开启了Autopilot功能,即自动驾驶。2016年美国佛罗里达州,一辆特斯拉Model?X在开启Autopilot功能的情况下,失控撞上一辆拖拉机,导致驾驶员死亡。2018年3月发生在美国加利福尼亚州的一次致命中,特斯拉Model?X的Autopilot也处于启动状态。

自动驾驶成了一把双刃剑,既是特斯拉的金字招牌,又是特斯拉的安全隐患。尽管特斯拉在后期的软件升级中限制了车主对于自动驾驶功能的滥用,但不可否认,大多数特斯拉车主会在开启自动驾驶之后心不在焉,将自己的生命安全交给电脑,这难道不是一件荒唐的事情吗?

试问有哪家技术实力雄厚的传统车企做不出自动驾驶?但传统车企在自动驾驶方面的步伐,相比造车新势力要谨慎得多。传统车企不缺乏卖点,奔驰可以说自己豪华,宝马可以说自己运动,奥迪可以说自己科技,轮到特斯拉呢?所以特斯拉只能铤而走险,用尚不成熟但新奇的功能吸引消费者注意。

不只是特斯拉,其他的造车新势力包括小鹏、蔚来、理想等,都在竞相推出自动驾驶功能,妄图走特斯拉的老路,博取消费者的关注。消费者并不都是理智的,在销售人员天花乱坠的吹嘘下,很可能冲动之下就成为了车主,但自动驾驶背后的风险,却鲜有销售人员对车主进行说明。

汽车发展到今天,开始变得越来越电子化,不论是内部增加的大屏还是外部增加的雷达,都正在慢慢改变汽车的单一属性,汽车不再是单纯的交通工具,它也可以是电子产品。相比传统车企,造车新势力的产品大多数都是电子产品,但必须注意的是,酷炫背后是随时“死机”的安全风险。

本文来源于汽车之家车家号作者,不代表汽车之家的观点立场。

特斯拉事故原因是什么?

你没看错,这次还是特斯拉的自动驾驶。因为自动驾驶事故,特斯拉最近频上头条。

近日,一位特斯拉Model?3车主在网络论坛上发文***,该车主称,其驾驶开启AutoPilot完全自动驾驶功能的Model?3在深圳南坪正常行驶时,右前方行驶的渣土车突然并道而来,而他的Model?3在自动驾驶系统的控制下,非但没有停下来,反而加速冲了上去。

从车主公布的信息来看,当时Model?3正在与前面的渣土车跟车行驶,这时右方并过来一辆**的渣土车,但Model?3没有自行减速和调整方向的操作。同时,Model?3前方的渣土车开始加速行驶,处于跟车状态的Model?3也开始猛地加速,然后就撞上了正在并线的渣土车。

针对公布内容,车主还承诺均为亲身经历,如果存在与事实不符的情况,愿意承担相应的法律责任。

另外,据车主透露,爱车是在2019年8月购买,购车的同时购买了号称“具备完全自动驾驶能力”的FSD。购车以来,也经常使用FSD,按照以往的经验,这种情况下,特斯拉会自动减速或往旁边变更方向。但这次,特斯拉没有像往常一样做出正确的反应,车主想强行干预时,已经撞上了渣土车。

事后,车主要求特斯拉解释,自动驾驶未能识别到大型渣土车并且加速冲撞的原因,但是特斯拉工作人员表示“FSD硬件和数据分析是没有异常”。

对此,也有自称业内人士的网友解释道,卡车处于特斯拉盲区,没被检测到是正常现象。同时当时车辆处于自动跟车状态,前车加速后,Model?3也自动加速,因此出现了突然冲撞渣土车。并判定特斯拉的FSD无责任。

显然,这种结论站不住脚,特斯拉FSD存在视觉盲区本身就是硬件缺陷,但在宣传的时候不提醒车主缺陷隐患。就当前阶段,还是提醒大家不要过度依赖自动驾驶,只能作为一种驾驶的手段。毕竟自动驾驶技术还未成熟,开车在路上,生命是自己的!

本文来源于汽车之家车家号作者,不代表汽车之家的观点立场。

车主上路实测特斯拉"全自动驾驶"撞上护栏

特斯拉再致命 事故记录显示原因竟是这样的 ?特斯拉于日前证实,3月23日一辆Model X在加州发生了一起致命事故,当时汽车启用了Autopilot,进而引发了一系列关于处理半自动驾驶系统的新问题。

据悉受害者此前曾多次向特斯拉方面抱怨称汽车的Autopilot技术存在问题。而特斯拉方面称,根据恢复的事故记录显示,当时Autopilot处于开启状态,自适应巡航控制系统将距离设为最小。但是,事发时受害者的手离开了方向盘,系统曾多次提醒他重新将手置于方向盘上,但他没有做出反应。

特斯拉称:“司机大约有5秒的响应时间和150米的无障碍视线,可以看到混凝土分隔物,上面有冲撞衰减设施,但是车辆记录中显示,司机并未取任何行动。”

然而,特斯拉的声明中并未说明为何Autopilot没有检测到混凝土分隔物。

这场发生在山景城附近的致命还引发了车辆起火,后面两车也因追尾,同时使得事故发生地的交通延误了数个小时。而38岁的受害者也在送往附近医院的途中不治身亡。

美国高速公路安全管理局(NHTSA)在本周早些时候对这起展开调查,但并未在本周五立即对特斯拉的回复置评。与此同时,美国国家运输安全委员会(NTSB)也在调查这起致命的事故。

在特定条件下,开启Autopilot后,司机无需长时间将手置于方向盘上。而特斯拉则是要求车主在开启Autopilot时也要始终保持对方向盘的控制,不过车主们似乎并不会乖乖遵守这一要求。

此前发生的特斯拉Autopilot驾驶事故已经引起了NTSB的注意。

特斯拉历史上出现过几次重大的自动驾驶事故,2016年5月,一名Model S在其官方的完全自动驾驶状态下撞上对向正在转弯的卡车,该事故导致驾驶员死亡。当时特斯拉的Autopilot因为卡车车体反光,摄像头并未识别对向的卡车。

这是特斯拉以自动驾驶模式运行时的首例死亡时间,因此引发了很多关于系统安全性的疑问,该系统能够在没有人为干预或是极少人为干涉的情况下长时间执行驾驶任务,但无法完全取代人类。

NTSB表示,特斯拉可以取进一步措施防止系统被滥用,并防止司机过度依赖车辆的自动化。

此后,NHTSA和NTSB又调查了一辆处于半自动驾驶模式下的特斯拉汽车,该汽车撞上了加州的一辆消防车。但特斯拉和这两个机构均为对此事做出后续解释。

在行业正在寻求联邦立法以促进自动驾驶汽车的部署时,调查提高了特斯拉和汽车制造商的风险。

而亚利桑那州的一辆Uber汽车以自动驾驶模式撞上一名行人并致其死亡。

特斯拉于周五晚些时候称:“Autopilot并不能防止所有的事故的发生,事实上,我们无法达到这一标准,Autopilot 降低了事故的发生率。它为车辆乘客、行人和骑自行车的人都创造了应该更安全的世界。”

特斯拉表示,在美国,每行驶1.38亿公里都会有一名因身亡的受害者。而将已知的死亡人数考虑在内,配备了Autopilot硬件的特斯拉起床的死亡人数是每5.1亿公里有一名身亡的受害者。”

特斯拉在2016年9月对Autopilot做出了完善,并增加了相关的限制。

3月30日,特斯拉宣布因为转向系统零配件缺陷召回12.3万辆特斯拉Model S,占特斯拉目前全部产量28万台的不到一半,大约是过去两年多的产量。虽然召回在汽车行业是正常现象,此次召回的故障也不是重大缺陷。但在目前的事态下,这个消息的负面效应会被放大。

车主上路实测特斯拉"全自动驾驶"撞上护栏

车主上路实测特斯拉"全自动驾驶"撞上护栏,一名YouTube用户提供了首份证据,证明特斯拉的“全自动驾驶”套件并不像埃隆·马斯克所称的那样安全。车主上路实测特斯拉"全自动驾驶"撞上护栏。

车主上路实测特斯拉"全自动驾驶"撞上护栏1

特斯拉一直在公开测试“完全自动驾驶”(FSD Beta)并非是什么秘密,上个月马斯克还曾自豪地宣称,上线一年来,特斯拉的FSD Beta版从未发生过事故。

不过,近日一辆使用完全自动驾驶FSD Beta版的特斯拉,在转弯后撞上路边护栏的得到曝光, 这被认为是FSD Beta版上线后的第一起事故

从公布的看,这台特斯拉正常右转,然而转弯后路线发生了偏差, 径直撞向了用于隔离机动车道和自行车道的雪糕筒护栏 ,引得车内驾乘人员一阵惊呼,甚至爆出了粗口,司机立刻接管车辆,踩下了刹车。

好在雪糕筒为塑料材质,加上应对及时,仅仅是撞弯了其中一个,车头有点受损,其他无大碍。

车主表示, 已经将该案例上传到了特斯拉反馈部门

值得注意的是,此前一位特斯拉Model Y车主曾向美国国家公路交通安全管理局(NHTSA)投诉称,自己的车辆在使用FSD Beta的时候发生了事故,但截至目前这一投诉尚无法得到证实。

车主上路实测特斯拉"全自动驾驶"撞上护栏2

2月10日消息,名为AI Addit的YouTube用户提供了首份证据,证明特斯拉的“全自动驾驶”(FSD)套件并不像埃隆·马斯克(Elon Musk)所称的那样安全。

AI Addit的是在美国加州圣何塞市中心的一次驾车过程中拍摄的,首次展示了激活FSD系统的特斯拉Model 3与自行车道护栏相撞的场景,并证明FSD应该对这起交通事故负有直接责任。

在中,可以看到特斯拉最新版本的自动驾驶软件FSD Beta Version 10.10指示Model 3转向将自行车道与机动车道隔开的护栏。尽管司机急忙踩下刹车,并疯狂地打方向盘进行躲避,但AI驱动的车辆还是重重地撞上了护栏。

令人担忧的是,在中,还能看到这辆特斯拉汽车似乎因为软件原因而闯了红灯,它还试图沿着铁轨行驶,后来又试图驶入有轨电车车道。

AI Addit的驾车长约9分钟,撞车发生在大约3分半钟的时候。这位YouTube用户似乎坐在靠近方向盘的驾驶位上,后座还有一名乘客陪同。在中可以听到AI Addit的声音:“我们撞车了,但我已经把刹车踩到底了!”乘客回答称:“我真不敢相信这辆车竟然没有停下来。”

马斯克上个月曾声称,FSD Beta系统从未发生过事故,但新的提供了证据,证明事实并非如此。在AI Addit记录的中,可以看到司机的双手只是轻触方向盘,而不是握紧它,完全由FSD控制方向盘的运动,使汽车遵循地图上预先定义的路线行驶。

FSD是专为特斯拉汽车提供支持的先进司机驾驶软件,属于L2级自动驾驶系统,这意味着该系统可以控制汽车的速度和方向,允许司机双手短暂离开方向盘,但他们必须时刻监控道路,并做好接管车辆的准备。这项技术在购车时是可选的,包括几个自动驾驶功能,但仍需要司机监督。

在发生撞车事故的前一刻,可以看到司机双手猛打方向盘,但为时已晚。虽然车辆损伤并不严重,但被完全撞倒的护栏在汽车前保险杠上留下了油漆印记。

在这段发布前不久,特斯拉被迫召回近5.4万辆电动轿车SUV,因为它们的FSD软件无法识别停车标志。美国安全监管机构2月1日发布的文件显示,特斯拉已通过“空中软件更新”禁用了这一功能。此外,特斯拉在与美国国家公路交通安全管理局(NHTSA)官员举行两次会议后同意召回受影响车辆。

许多司机正帮助特斯拉测试FSD系统,它允许车辆以9公里的时速通过带有停车标志的路口。在AI Addit的测试中,该系统可能没有意识到自行车道上有一段路被封锁了。在的大部分内容中,Model 3似乎在检测绿色自行车道护栏时遇到了问题,这些护栏散布在圣何塞市中心,这辆车几次朝它们驶去。

这段似乎突出了FSD的其他不足之处。FSD还处于测试阶段,因此将在广泛推出之前进行改进。在中,这辆车的AI试图指示其左转进入繁忙的主路,尽管当时正有一辆卡车迎面驶来。不过FSD似乎在“耐心”等待行人过马路和避开其他车辆方面做得很好。

2021年年底,特斯拉表示,有近6万名车主参加了FSD Beta。该只适用于该公司特别挑选的.特斯拉车主,以及安全得分高达100分(满分100分)的司机。然而,一位投资者去年10月透露,他的安全得分只有37分,但他被允许使用FSD Beta。

这些安全得分是由司机驾车时的行为决定的,司机允许特斯拉使用车载软件监控他们的驾驶过程。特斯拉警告说,任何使用L2级自动驾驶系统的司机必须随时准备介入干预。

FSD是特斯拉司机驾驶系统Autopilot的升级版,后者曾引发多起致命事故。到目前为止,已经核实了12起涉及Autopilot的死亡事故,以及一系列非致命的撞车事故。

尽管马斯克在1月份断言FSD Beta的安全记录无懈可击,但NHTSA在2021年11月收到了第一起投诉,称FSD导致一名特斯拉司机撞车。这起事故发生在加州布雷亚,当时一辆激活FSD软件的特斯拉Model Y驶入错误车道,并被另一辆车撞上。

无独有偶,最新公布的监控显示,2021年8月,激活Autopilot的特斯拉Model Y撞上了停在美国64号高速公路旁州际公路巡逻队的警车,导致警车失控翻滚并撞上了站在路边的副警长。随后,这辆车侧扫指示牌,最终滚下山坡撞到树上。 据称,这辆特斯拉汽车的司机是德文德·戈利(Devainder Goli)医生,他在汽车处于自动驾驶状态时正在手机上看**。

自动驾驶汽车专家萨姆·阿布萨米德(Sam Abuelsamid)表示:“这些系统都不是自动驾驶系统,而是司机系统。所有系统都是为司机观察道路而设计的,随时都要保持专注。事实上,在特斯拉的系统中,司机的手也应该总是放在方向盘上。制造商可能经常夸大系统能做什么,而不会谈论它们不能做的事情。”

车主上路实测特斯拉"全自动驾驶"撞上护栏3

1月18日,特斯拉CEO埃隆·马斯克声称FSD(完全自动驾驶)测试版推出使用以后,就没有出过错。在此前一日,特斯拉的一名股东Ross Gerber在twitter上称,在FSD发布后的一年多里从未出过意外或有人受伤,而同期美国则有20000人死于交通意外。马斯克转发了这条推特,并确定的说:“没错”。

而在早前两日,马斯克的这一确定性答案受到了质疑,一位叫 AI Addict的博主分享了段其体验FSD功能的影片,影片拍于加州一个只有100多万人口的圣何塞。按的说明,博主已经更新到今年1月5日所推送的 FSD Beta v10.10(2021.44.30.15)版本。当中车辆在FSD的控制下大部分情况表现优秀,但当行驶到一段右转道路后,到了3分30秒的时候,车辆右转后没有正确识别出道路边上的防撞柱,毫不犹豫的撞了上去,车内的人也立即被吓到,还好驾驶者一直都有注意路况,也把手一直放在方向盘上发生事故时立即介入,才没有造成更大的事故。

当然,特斯拉在网页和FSD功能说明当中一直提醒完全自动驾驶的用户:FSD处于早期测试阶段,使用时必须更加谨慎。它可能会在错误的时间做出错误的决策,所以必须始终保持双手在方向盘上,并额外注意道路状况。驾驶者需要持续关注道路,并准备好立即取行动,特别是在盲区、十字路口和狭窄道路的驾驶时。现在看来,这种提醒还是很有必要。

特斯拉 FSD Beta 的安全性一直以来也受到一些质疑,在不同的版本当中会出现不同的问题。比如在早前的9.0版本当中,转变后没有识别出路边的树木,没有识别出公交车道,没有识别出单行道,转弯后直接开到了停车位上行驶等一系列的问题。

除此以外,外界的批评也包括特斯拉把还没有完成开发的功能直接交付给消费者使用,让人们在实际的行驶道路上使用这一系统不负责任。

特斯拉的自动驾驶系统,通过摄像头对外界物体进行识别并做出反应。正常的情况下可以识别路边的障碍物,雪糕筒,特殊车道的标识以及停车标志,目前仅开放给美国的车主付费使用。

FSD Beta 自2020年9月底正式对外发布使用,对此感兴趣的车主可以在手机当中申请使用,而特斯拉则会根据车主近期的驾驶评分决定是否开通此功能,而事实上,大部分的车主都可以使用上这一功能。特斯拉则会在驾驶过程当中监控、搜集行车数据调整升级优化系统,这也是FSD快速提供升级包的原因。自动驾驶业内,普遍认为激光雷达配合高精度地图才是自动驾驶的解决方案,而特斯拉则反其道而行,完全抛弃激光雷达选择了相信当下摄像头所看到的东西,已上传三天,特斯拉没有解释事故是否确实因FSD没有识别出路边的那一排绿色隔离柱而导致。

2021年2月1日,美国国家公路交通安全管理局(NHTSA)要求特斯拉召回5.3万辆电动汽车,原因是这些车辆当中带有的“滚动停车”(rolling stops)功能与法律冲突,这一功能允许特斯拉以每小时5.6英里的速度通过有双向停车标志的车字路口。而美国的交规则要求,这一标志与红灯接近,当路口有这一标志的时候,即便周围没车没人,也必须在路口白线前停下3秒后确认路口的情况下才能继续行驶。而特斯拉的软件则引导车辆低速通过因此被召回。

马斯克随后解释此功能不存在任何安全问题。他称:”汽车只是减速到大约2英里(3.2 公里),如果视野清晰,没有汽车或行人,就继续向前行驶。“

一月中马斯克才刚称赞完 FSD Beta 自一年前开始到现在,“从未”发生过任何错误,但最近这一车主的实测影片可是把马斯克的脸打的肿肿的,因为FSD Beta 的错误判断,车辆直接撞上路边的防撞柱。当然,这个事故也算不上严重,毕竟车辆没有受到严重的损坏也没有人员受伤,不知道这是否包含在马斯克此前的”意外“范围之内。

美国NHTSA也提醒:“到目前为止,还没有任何一台市售车型可以实现自动驾驶,每辆车都需要司机操控。虽然先进的驾驶功能可以协助司机避免碰撞或是遭遇交通事故,但司机还是必须随时留意驾驶状况与路况。”

标签: #特斯拉

上一篇成都市小型汽车违章查询-成都小汽车违章处理

下一篇当前文章已是最新一篇了