特斯拉自动驾驶事故案例-特斯拉自动驾驶撞车

tamoadmin 0
  1. 最新通报!杭州一特斯拉“自动驾驶”撞上路灯?调查结果如何了?
  2. 自动驾驶再背锅!特斯拉遇严重事故:Model Y钻入货车底部
  3. 最严重特斯拉肇事案引发拷问:幽灵事故是车主问题还是软件缺陷?
  4. 又一起特斯拉自动驾驶撞车事故 类似曾判特斯拉车主负全责
  5. 说好的自动驾驶呢!如何看待又一特斯拉撞上翻倒大货车?

2月19日消息,据国外媒体报道,美国国家运输安全委员会(NTSB)上周公布了特斯拉Model X车主黄伟伦遇难的详细调查文件,该文件给出了可能导致的三大原因

这三大可能的原因是:第一、特斯拉Autopilot系统故障;第二、黄伟伦本人注意力不集中;第三、设计和维护101号高速公路的机构更换碰撞减速装置速度太慢。

这起事故发生在2018年3月,当时苹果工程师黄伟伦驾驶的Model X在Autopilot启动的情况下撞上了匝道隔离栏,导致车辆起火,不幸遇难。

特斯拉自动驾驶事故案例-特斯拉自动驾驶撞车
(图片来源网络,侵删)

去年5月,黄伟伦的家人将特斯拉告上了法庭。他的家人声称,特斯拉对其Autopilot系统的广告营销,让黄伟伦对该技术的性能产生了夸大的印象。他们认为,Autopilot系统出现问题才导致了悲剧的发生。

但特斯拉坚称是黄伟伦的过错,并称黄伟伦收到过几次“把手放在方向盘上的警告”。如果他没注意,就有可能发生。

以下是美国国家运输安全委员会公布的文件给出的可能导致的三大原因:

第一、特斯拉Autopilot系统故障

上周,外媒曾报道称,黄伟伦生前曾报告过Autopilot系统的故障,且他曾向家人和朋友抱怨过这个问题。

美国国家运输安全委员会公布的文件披露,黄伟伦之前曾报告称,在之前的几次行程中,这辆车曾在事故发生的地方驶离了高速公路。

这些文件证实了黄伟伦家人的说法,即在他发生致命撞车事故前,他曾在这个特定地点经历过多次这种特殊故障。然而,美国国家运输安全委员会无法证实,他是否曾向特斯拉报告过这个问题。

第二、黄伟伦本人注意力不集中

法医的数据表明,黄伟伦可能在发生前的最后几秒没有注意到道路状况,因为他有开车上班时在车里玩游戏的习惯。

苹果公司提供的iPhone的日志也显示,在发生致命的那一周,他每天早上通勤时都会使用这款应用。然而,这些日志并没有提供足够的信息来说明,他是否在去世前的最后几秒还在玩游戏。

此前,美国国家运输安全委员会的一份初步调查报告发现,黄伟伦驾驶的Model X在撞上路障前曾加速行驶,且在事故发生前的6秒内,黄伟伦没有把手放在方向盘上。

此前,特斯拉曾表示,它的Autopilot系统只是部分实现了自动化,比如,使汽车保持在车道上,与前方车辆保持安全距离。该系统只是为了司机,司机必须随时准备干预。

第三、相关机构更换碰撞减速装置的速度太慢

在黄伟伦撞车事故发生的前两周,在他撞车的同一地点曾发生过另一起撞车事故,设计和维护101号高速公路的机构还没来得及更换碰撞减速装置,这降低了黄伟伦在中幸存的机会。

据悉,关于黄伟伦撞车事故的听证会将于2月25日举行,届时美国国家运输安全委员会将确定黄伟伦撞车的原因,并提出安全建议。

最新通报!杭州一特斯拉“自动驾驶”撞上路灯?调查结果如何了?

车主上路实测特斯拉"全自动驾驶"撞上护栏

车主上路实测特斯拉"全自动驾驶"撞上护栏,一名YouTube用户提供了首份证据,证明特斯拉的“全自动驾驶”套件并不像埃隆·马斯克所称的那样安全。车主上路实测特斯拉"全自动驾驶"撞上护栏。

车主上路实测特斯拉"全自动驾驶"撞上护栏1

特斯拉一直在公开测试“完全自动驾驶”(FSD Beta)并非是什么秘密,上个月马斯克还曾自豪地宣称,上线一年来,特斯拉的FSD Beta版从未发生过事故。

不过,近日一辆使用完全自动驾驶FSD Beta版的特斯拉,在转弯后撞上路边护栏的得到曝光, 这被认为是FSD Beta版上线后的第一起事故

从公布的看,这台特斯拉正常右转,然而转弯后路线发生了偏差, 径直撞向了用于隔离机动车道和自行车道的雪糕筒护栏 ,引得车内驾乘人员一阵惊呼,甚至爆出了粗口,司机立刻接管车辆,踩下了刹车。

好在雪糕筒为塑料材质,加上应对及时,仅仅是撞弯了其中一个,车头有点受损,其他无大碍。

车主表示, 已经将该案例上传到了特斯拉反馈部门

值得注意的是,此前一位特斯拉Model Y车主曾向美国国家公路交通安全管理局(NHTSA)投诉称,自己的车辆在使用FSD Beta的时候发生了事故,但截至目前这一投诉尚无法得到证实。

车主上路实测特斯拉"全自动驾驶"撞上护栏2

2月10日消息,名为AI Addit的YouTube用户提供了首份证据,证明特斯拉的“全自动驾驶”(FSD)套件并不像埃隆·马斯克(Elon Musk)所称的那样安全。

AI Addit的是在美国加州圣何塞市中心的一次驾车过程中拍摄的,首次展示了激活FSD系统的特斯拉Model 3与自行车道护栏相撞的场景,并证明FSD应该对这起交通事故负有直接责任。

在中,可以看到特斯拉最新版本的自动驾驶软件FSD Beta Version 10.10指示Model 3转向将自行车道与机动车道隔开的护栏。尽管司机急忙踩下刹车,并疯狂地打方向盘进行躲避,但AI驱动的车辆还是重重地撞上了护栏。

令人担忧的是,在中,还能看到这辆特斯拉汽车似乎因为软件原因而闯了红灯,它还试图沿着铁轨行驶,后来又试图驶入有轨电车车道。

AI Addit的驾车长约9分钟,撞车发生在大约3分半钟的时候。这位YouTube用户似乎坐在靠近方向盘的驾驶位上,后座还有一名乘客陪同。在中可以听到AI Addit的声音:“我们撞车了,但我已经把刹车踩到底了!”乘客回答称:“我真不敢相信这辆车竟然没有停下来。”

马斯克上个月曾声称,FSD Beta系统从未发生过事故,但新的提供了证据,证明事实并非如此。在AI Addit记录的中,可以看到司机的双手只是轻触方向盘,而不是握紧它,完全由FSD控制方向盘的运动,使汽车遵循地图上预先定义的路线行驶。

FSD是专为特斯拉汽车提供支持的先进司机驾驶软件,属于L2级自动驾驶系统,这意味着该系统可以控制汽车的速度和方向,允许司机双手短暂离开方向盘,但他们必须时刻监控道路,并做好接管车辆的准备。这项技术在购车时是可选的,包括几个自动驾驶功能,但仍需要司机监督。

在发生撞车事故的前一刻,可以看到司机双手猛打方向盘,但为时已晚。虽然车辆损伤并不严重,但被完全撞倒的护栏在汽车前保险杠上留下了油漆印记。

在这段发布前不久,特斯拉被迫召回近5.4万辆电动轿车SUV,因为它们的FSD软件无法识别停车标志。美国安全监管机构2月1日发布的文件显示,特斯拉已通过“空中软件更新”禁用了这一功能。此外,特斯拉在与美国国家公路交通安全管理局(NHTSA)官员举行两次会议后同意召回受影响车辆。

许多司机正帮助特斯拉测试FSD系统,它允许车辆以9公里的时速通过带有停车标志的路口。在AI Addit的测试中,该系统可能没有意识到自行车道上有一段路被封锁了。在的大部分内容中,Model 3似乎在检测绿色自行车道护栏时遇到了问题,这些护栏散布在圣何塞市中心,这辆车几次朝它们驶去。

这段似乎突出了FSD的其他不足之处。FSD还处于测试阶段,因此将在广泛推出之前进行改进。在中,这辆车的AI试图指示其左转进入繁忙的主路,尽管当时正有一辆卡车迎面驶来。不过FSD似乎在“耐心”等待行人过马路和避开其他车辆方面做得很好。

2021年年底,特斯拉表示,有近6万名车主参加了FSD Beta。该只适用于该公司特别挑选的.特斯拉车主,以及安全得分高达100分(满分100分)的司机。然而,一位投资者去年10月透露,他的安全得分只有37分,但他被允许使用FSD Beta。

这些安全得分是由司机驾车时的行为决定的,司机允许特斯拉使用车载软件监控他们的驾驶过程。特斯拉警告说,任何使用L2级自动驾驶系统的司机必须随时准备介入干预。

FSD是特斯拉司机驾驶系统Autopilot的升级版,后者曾引发多起致命事故。到目前为止,已经核实了12起涉及Autopilot的死亡事故,以及一系列非致命的撞车事故。

尽管马斯克在1月份断言FSD Beta的安全记录无懈可击,但NHTSA在2021年11月收到了第一起投诉,称FSD导致一名特斯拉司机撞车。这起事故发生在加州布雷亚,当时一辆激活FSD软件的特斯拉Model Y驶入错误车道,并被另一辆车撞上。

无独有偶,最新公布的监控显示,2021年8月,激活Autopilot的特斯拉Model Y撞上了停在美国64号高速公路旁州际公路巡逻队的警车,导致警车失控翻滚并撞上了站在路边的副警长。随后,这辆车侧扫指示牌,最终滚下山坡撞到树上。 据称,这辆特斯拉汽车的司机是德文德·戈利(Devainder Goli)医生,他在汽车处于自动驾驶状态时正在手机上看**。

自动驾驶汽车专家萨姆·阿布萨米德(Sam Abuelsamid)表示:“这些系统都不是自动驾驶系统,而是司机系统。所有系统都是为司机观察道路而设计的,随时都要保持专注。事实上,在特斯拉的系统中,司机的手也应该总是放在方向盘上。制造商可能经常夸大系统能做什么,而不会谈论它们不能做的事情。”

车主上路实测特斯拉"全自动驾驶"撞上护栏3

1月18日,特斯拉CEO埃隆·马斯克声称FSD(完全自动驾驶)测试版推出使用以后,就没有出过错。在此前一日,特斯拉的一名股东Ross Gerber在twitter上称,在FSD发布后的一年多里从未出过意外或有人受伤,而同期美国则有20000人死于交通意外。马斯克转发了这条推特,并确定的说:“没错”。

而在早前两日,马斯克的这一确定性答案受到了质疑,一位叫 AI Addict的博主分享了段其体验FSD功能的影片,影片拍于加州一个只有100多万人口的圣何塞。按的说明,博主已经更新到今年1月5日所推送的 FSD Beta v10.10(2021.44.30.15)版本。当中车辆在FSD的控制下大部分情况表现优秀,但当行驶到一段右转道路后,到了3分30秒的时候,车辆右转后没有正确识别出道路边上的防撞柱,毫不犹豫的撞了上去,车内的人也立即被吓到,还好驾驶者一直都有注意路况,也把手一直放在方向盘上发生事故时立即介入,才没有造成更大的事故。

当然,特斯拉在网页和FSD功能说明当中一直提醒完全自动驾驶的用户:FSD处于早期测试阶段,使用时必须更加谨慎。它可能会在错误的时间做出错误的决策,所以必须始终保持双手在方向盘上,并额外注意道路状况。驾驶者需要持续关注道路,并准备好立即取行动,特别是在盲区、十字路口和狭窄道路的驾驶时。现在看来,这种提醒还是很有必要。

特斯拉 FSD Beta 的安全性一直以来也受到一些质疑,在不同的版本当中会出现不同的问题。比如在早前的9.0版本当中,转变后没有识别出路边的树木,没有识别出公交车道,没有识别出单行道,转弯后直接开到了停车位上行驶等一系列的问题。

除此以外,外界的批评也包括特斯拉把还没有完成开发的功能直接交付给消费者使用,让人们在实际的行驶道路上使用这一系统不负责任。

特斯拉的自动驾驶系统,通过摄像头对外界物体进行识别并做出反应。正常的情况下可以识别路边的障碍物,雪糕筒,特殊车道的标识以及停车标志,目前仅开放给美国的车主付费使用。

FSD Beta 自2020年9月底正式对外发布使用,对此感兴趣的车主可以在手机当中申请使用,而特斯拉则会根据车主近期的驾驶评分决定是否开通此功能,而事实上,大部分的车主都可以使用上这一功能。特斯拉则会在驾驶过程当中监控、搜集行车数据调整升级优化系统,这也是FSD快速提供升级包的原因。自动驾驶业内,普遍认为激光雷达配合高精度地图才是自动驾驶的解决方案,而特斯拉则反其道而行,完全抛弃激光雷达选择了相信当下摄像头所看到的东西,已上传三天,特斯拉没有解释事故是否确实因FSD没有识别出路边的那一排绿色隔离柱而导致。

2021年2月1日,美国国家公路交通安全管理局(NHTSA)要求特斯拉召回5.3万辆电动汽车,原因是这些车辆当中带有的“滚动停车”(rolling stops)功能与法律冲突,这一功能允许特斯拉以每小时5.6英里的速度通过有双向停车标志的车字路口。而美国的交规则要求,这一标志与红灯接近,当路口有这一标志的时候,即便周围没车没人,也必须在路口白线前停下3秒后确认路口的情况下才能继续行驶。而特斯拉的软件则引导车辆低速通过因此被召回。

马斯克随后解释此功能不存在任何安全问题。他称:”汽车只是减速到大约2英里(3.2 公里),如果视野清晰,没有汽车或行人,就继续向前行驶。“

一月中马斯克才刚称赞完 FSD Beta 自一年前开始到现在,“从未”发生过任何错误,但最近这一车主的实测影片可是把马斯克的脸打的肿肿的,因为FSD Beta 的错误判断,车辆直接撞上路边的防撞柱。当然,这个事故也算不上严重,毕竟车辆没有受到严重的损坏也没有人员受伤,不知道这是否包含在马斯克此前的”意外“范围之内。

美国NHTSA也提醒:“到目前为止,还没有任何一台市售车型可以实现自动驾驶,每辆车都需要司机操控。虽然先进的驾驶功能可以协助司机避免碰撞或是遭遇交通事故,但司机还是必须随时留意驾驶状况与路况。”

自动驾驶再背锅!特斯拉遇严重事故:Model Y钻入货车底部

车是生活中常见的交通工具,给人的生活提供了很大的方便,也提升了家庭的幸福感,拥有了小汽车,在外出的时候终于不用挤公交挤地铁了,在周末的时候还可以带着亲朋好友外出游玩,是很惬意的一件事。随着社会上车辆越来越多,在道路上行驶的时候发生的交通事故,问题也日益严峻。在杭州一辆特斯拉自动驾驶撞上路灯,警察调查之后发现结果反转。

在浙江杭州发生了一起,这个事故和其他的不同。据车主介绍,当时他正在副驾驶上面乘坐,使用的是特斯拉自动驾驶的功能,没想到车辆却撞上了路边的路灯。司机介绍自己在和朋友一起吃饭的时候喝了酒,他准备叫代驾。代驾行驶在北门的时候无法进入,随后他就坐到了副驾驶的位置上,使用了自动驾驶功能开往北门。

在行驶的过程当中,车辆却突然失控,冲出路面,撞上了路边的灯杆以及路旁的座椅。对于司机的说法,特斯拉方面却称车主撒谎,因为特斯拉汽车设计了重力感应设置,如果驾驶室没有人,那么车辆根本就没有办法启动。交警到达了事故现场,就对车主进行酒精测试,并且将他带去医院抽血检测。警方在调查之后确定在车辆当中,只有他一个人,他全程都是坐在驾驶位。

这位男子的检测结果显示醉酒驾驶,因为他违反了交通规则被吊销驾驶证,他在5年之内不可以取得驾驶证。这位男子在酒后开车实在是太危险了,一旦发生事故,后果不堪设想。如果撞到了人不仅会钱财面临损失,有可能还面临着牢狱之灾。他竟然还骗警察说自己是坐在副驾驶室,特斯拉官方回复也让他打脸。

最严重特斯拉肇事案引发拷问:幽灵事故是车主问题还是软件缺陷?

日前,和讯 汽车 从相关媒体获悉,美国底特律市3月11日凌晨发生一起特斯拉Model Y与卡车相撞的严重交通事故,事故导致Model Y的司乘人员受伤,所幸两人并没有生命危险。

从现场来看,这台白色特斯拉Model Y事发时从侧面径直撞上了大货车,被卡在箱体侧面龙骨下方, 车头损毁严重,部分车顶也被“掀开”。 由于碰撞后特斯拉车体被死死卡在货车底部,以至于救援人员难以处理事故现场,现场也被封锁了数个小时。

的是,特斯拉车上的两人并无生命危险,较强的车身刚性可能是两人能在这起惨烈事故中存活的原因, Model Y曾在美国NHTSA的碰撞测试中,获得最高评分。

目前,尚不清楚这台特斯拉在事发时是否开启了自动驾驶,也不清楚AEB主动安全系统为何没有发挥作用。

这已经不是第一起特斯拉撞货车的事故了。

2016年,世界公认的首起特斯拉“自动驾驶”致死事故就与上述的事故十分相似,美国一台直行的Model S钻入正在转弯的白色重卡车底,事发时车辆开启了自动驾驶,但是这台Model S没有做出任何制动措施。

同年,京港澳高速河北邯郸段发生一起严重的追尾事故。一辆白色特斯拉Model S轿车在左侧第一车道行驶时,撞上了一辆正在前方实施作业的道路清扫车,现场没有发现制动痕迹,事故造成特斯拉车内一名驾驶员死亡。

2020年,一辆特斯拉Model 3在高速公路上,径直撞上了此前已经发生事故,侧翻横躺在马路上的大货车。据悉,当时Model 3开启了自动驾驶功能,但车辆并未制动或作出提示,随后驾驶员接管时已来不及刹停。

特斯拉在早期曾大肆宣传自家车辆具备“自动驾驶”功能,但在发生几起和投诉后,便 将“自动驾驶”的功能宣传全部改为了“自动驾驶” ,并提醒驾驶员在任何时候双手都不得离开方向盘。

和讯 汽车 了解到,目前特斯拉在售的新车均配备级别较高的自动驾驶硬件,由 一颗位于车头的前置毫米波雷达和车身四周的8个摄像头以及12个超声波传感器组成 ,其中摄像头的探测半径可以达到250米,但并没有配备激光雷达。

然而,目前业内公认的自动驾驶方案中,激光雷达是不可 或缺 的硬件系统,但特斯拉方面却因为成本问题选择放弃。

特斯拉通过视觉摄像头和除激光雷达外的系统,在精准性和部分抗光线干扰方面还存在缺陷。 特别是在强光线下,或者以白色为基调的物体时,特斯拉这套方案的缺陷比较明显。

在这几次与大货车相撞的事故中,货车车体均为白色,摄像头因此受到干扰,而毫米波雷达可能完整地穿过了货车的底部,或是未能判断静止物体,亦或是由于横向交叉时车速过快,系统因此没有迅速响应。

又一起特斯拉自动驾驶撞车事故 类似曾判特斯拉车主负全责

文/韦波

每一次特斯拉出事故——不管是什么样的事故,都能引发超出意料的关注。不过这一次,想不关注都不行。

2020年9月5日16时16分许,在四川南充顺庆区富民街,车主刘某(女,51岁,顺庆区人)驾驶牌照为川ADA***3的特斯拉Model?X撞上多辆车辆和路边行人,造成2人死亡、6人受伤和多车受损。

这应该是迄今为止特斯拉在全球造成伤亡最多的一次交通肇事。鉴于此,“9·5南充特斯拉失控事故”已经被收录为百度百科词条。

网上流传的显示,车主刘某在事故现场下车的时候,脚上穿着一双黑色高跟鞋,但是在被警方带到警局做笔录的时候,刘某却换上了一双平跟鞋。

目前,肇事者刘某已被警方控制,但已排除酒驾和毒驾嫌疑,具体事故原因警方还在调查中。特斯拉官方也表示,已经派出工作人员第一时间赶赴现场了解案情,根据对车辆数据的分析,显示车辆没有发生故障。但有目击者表示,肇事车辆是在狭窄街道里突然加速。

不好判断这起事故和女车主的高跟鞋有没有直接关系,但这起事故,却又是一起疑似和刹车失灵有关,且疑似突然加速的特斯拉“幽灵事故”。

“幽灵事故”对特斯拉来说并非新鲜事。也就是上个月,8月12日22点55分左右,温州车主陈先生驾驶的特斯拉Model?3突然发生车速失控,冲入小区停车场,造成停车场内若干车辆损毁。驾驶的特斯拉Model?3则车头完全损坏,陈先生自己也严重受伤,经过7个多小时的抢救,输血近5升才捡回一条命。

陈先生表示事故原因是刹车失灵,事故发生时他并没有开启自动驾驶。目前这一案件也还在调查当中,没有给出最终的调查报告。

其实陈先生不知道的是,就在他遭遇车辆失控事故的三天前,也就是8月9日晚九点多,一辆Model?3突然毫无征兆地失控,冲入位于上海杨思路上的一个加油站,造成2人受伤,并将油枪前的防撞栏损毁,波及三辆准备加油的轿车……

这两起事故后,特斯拉官方立马表示,只和车主本人沟通,也不承诺向社会公开事故原因。特斯拉的客服人员甚至表示,如果排除驾驶者不踩错加速和制动踏板的可能,一般不会出现这个现象。这种说法用简单的人话说就是:两起事故的根本原因还是车主出现误操作,与我们无关。

时间再往回拨两个月。今年6月,一辆特斯拉Model?3在江西也发生了类似事故。当时,车辆在正常行驶过程中突然自动提速到127km/h,且无法控制速度,刹车失灵,车辆最后发生碰撞,冲下路基并起火,好在车主被救回一条命……

事后官方单方面给出的调查结果显示,碰撞发生时,有踩下加速踏板信号,无踩下制动踏板的信号——也就是说,幽灵事故的原因还是车主的误操作。

那么,这种情况是只在国内出现吗?国外的情况又怎么样呢?

2016年6月,上市还没多久的特斯拉Model?X就以幽灵事故的方式在美国完成了全球首撞——按照车主Puzant?Ozbag的说法,他的妻子试图将这辆Model?X停靠在一家购物中心附近,进入车位时车辆突然自动加速冲出绿化带并撞上旁边建筑物。照理说,在即将进入车位时,车速是不可能太快的。

还好当时Puzant?Ozbag的妻子是准备左转进入车位,如果车轮没有左转,只怕是会直接冲入位于建筑物一楼的商店内。如此一来,“全球最严重特斯拉肇事案”怕是要提前到2016年的美国。

三个月后,另外一名美国车主在将Model?X准备停进自家***的时候,车辆突然全力加速,撞破***内侧墙壁,直接撞进起居室,导致车主及车上乘客受伤。

2016年12月31日,该车主在加州中区的美国地方***就Model?X的安全隐患问题对特斯拉进行了***——这也是特斯拉在幽灵事故上所吃到的第一起官司。

该车主在NHTSA(美国高速公路安全管理局)的投诉数据库中,找到了另外7起特斯拉电动车突然自动加速的投诉。尽管如此,法庭还是无法认定特斯拉Model?X确实存在安全隐患,官司最终也不了了之。

在NHTSA的投诉记录中,你甚至还能找到Model?3在洗完车之后在驻车状态下,从自动洗车房出口突然加速蹿出来的幽灵事故案例。投诉者表示,整个过程中,他妻子的脚完全踩在刹车踏板上,而且屏幕上也亮着“Hold”指示灯,即当时车辆处于驻车状态……有美国网友评论称:“可能是你的车子不愿意洗澡……”

早在去年,一位名为Brian?Sparks的投资者向NHTSA提交了一份***书,要求对特斯拉的行驶控制软件进行调查。***书声称,特斯拉电动车共造成了110起意外加速的幽灵事故,导致52人受伤,而且疑似的行驶控制软件缺陷,还有可能波及2013-2019年间生产的50万辆特斯拉电动车。

所以今年1月,NHTSA正式表态,将针对特斯拉旗下三款车型可能会发生意外加速的隐患进行调查。不过特斯拉随即发布公告,否认了这份***书的真实性,声称Brian?Sparks有意抹黑做空特斯拉。

特斯拉官方表态,他们分析了每一起幽灵事故的驾驶数据,结论就是特斯拉汽车在所有实践中都按照设计要求正常运行——这种说辞其实很苍白,因为当软件设计有错误时,车辆也当然理所应当的按照错误继续“正常运行”。

就在今年7月,由于Model?3存在突然加速问题,特斯拉被二十多名车主集体***。该诉讼称,除了Model?3之外,Model?X和Model?S也发生过类似的幽灵事故问题——在此之前,就有Model?S突然加速怼了路边停靠的警车。有网友戏称,“警察当时害怕极了”,“这下连报警都省了”……

相比之下,最实锤的幽灵事故案例,目前来说还是在中国。

2019年3月6日上午7点50分左右,车主杨先生驾驶自己的Model?S到位于上海市青浦区米格天地的特斯拉超级充电站内充电,原本缓缓行驶的车辆竟突然加速,瞬间撞破围栏,冲进了对面的河道里。

杨先生事后表示,由于已经进入超充站,所以自己将右脚放到了刹车踏板上,让车辆处于蠕行状态,绝对“没有踩错油门”。汽车突然失控加速后自己赶紧踩下刹车,但没有任何作用。

杨先生查看监控时发现,在车辆失控加速并冲入河道时,车辆的高位刹车灯始终是亮着的,这是杨先生没有踩错刹车的最有力证据。然而令人意外的是,物业方一直拒绝公开这段监控。而特斯拉官方出面之后,则让车主将车送到有资质的第三方车辆检测机构进行检测,要求对车后台数据进行分析处理后才能得出最终的结果。

是车主杨先生情急之下踩错了刹车?还是Model?S的控制软件真的出了问题?不得而知。但个人觉得,如若是前者,特斯拉官方绝不会藏着掖着。现在一年半都过去了,Model3都国产了,特斯拉官方还是没有公开这个事故的任何调查结果。

迄今为止,依然没有一个权威的部门能对特斯拉控制软件的安全性进行认定,这里面可能涉及到的专业层面东西较多,也没什么奇怪。但下面这一起属于特斯拉App的BUG,无需任何部门出面认定,明眼人一看就懂。

一位国内的特斯拉车主爆料,在使用特斯拉App时,发现自己车辆信息突然消失,转而代之的则是5辆位于欧洲的特斯拉车型,车主信息均可见,而且自己可以远程实施控制。尽管“1变5”,但这位车主高兴不起来——无论是个人隐私还有车辆安全问题,在这起中就好比一张窗户纸,一捅就破。

据悉车主已经录像存证,并要求特斯拉官方给个说法,但至今特斯拉没有任何回应。这一回如果特斯拉还敢说自己的控制软件没问题,怕是马斯克自己都不信!?

说到底,控制软件和外观内饰一样,都是人设计的。只不过设计软件的是软件工程师,而设计外观内饰的则是设计师。考虑不周全,设计就会出BUG。

之前就有特斯拉Model?3车主疯狂吐槽行李厢上方的导水槽完全是不过脑的设计——下雨的时候一旦打开尾门,尾门上的雨水就会流到后挡风玻璃上,然后在流动惯性作用下,直接越过导水槽流进行李厢。

而且在雨天行驶的时候,雨水也会流入后备厢。然而有意思的是,Model?3在行李箱的地板下还设计了一个很深的储物空间,平时漏下来的雨水,就会全部流进这个地方“储存”起来,有网友戏称“谁说电动车没有水箱”,还有网友将其称为“车载鱼缸”。

当“车载鱼缸”里的水太多太重的时候,就有可能出现下面的问题——过减速带一颠,卡扣一松,行李厢地板下的“鱼缸”就会连同整个车底还有后保险杠被颠落下来。

听起来有点魔幻?但更夸张的无脑设计还在后面。

有车主投诉,特斯拉Model?3上移动座椅时,座椅头枕将化妆镜挤裂了——说实话,如果不是看到,单靠脑补实在是想不通为何牙齿不小心会把耳朵咬了。

究其原因,就是前排座椅升太高的时候,没有考虑到座椅头枕和化妆镜之间的安全空间冗余。安全空间冗余的工程验证是每个车企的常规项目,算不得核心技术和商业机密,说白了就是看活动零部件在各个方向的最远运动止点,会不会相互发生干涉。

说更难听一点,给你家装修卫生间的小哥,也会想着你家向内开的厕所门,会不会打到你平时坐着拉屎的马桶……

说到底,之所以出现这种“牙齿咬到耳朵”的奇葩,原因就在于特斯拉Model?3的前排座椅在坐垫前止点,坐垫上止点,靠背前止点三个维度上的空间冗余验证出现了问题。车主如果不小心将坐垫升到最高,将坐垫移到最前面,再将靠背100%前倾,就会出现上面的“千古奇观”。

对于一辆车来说,内饰的安全空间冗余验证重点就是座椅——毕竟这是车内最大的可活动零部件。所以很想问马斯克,特斯拉开发新车的时候,到底做不做安全空间冗余验证?

这还是Model?3,特斯拉旗下最新的在售车型——照理说,有Model?S和Model?X在前面踩坑,Model?3的设计相对前辈而言应该更加完美,但实际情况并非如此。

好了,核心的结论来了——特斯拉连车辆外观内饰的明显设计缺陷都没有办法很好的规避,又该如何保证自己的行驶控制软件100%没有缺陷?说特斯拉软件工程师的智商比设计师更高?我是不信的。

外观内饰有设计缺陷,充其量吐个槽看个笑话;行驶控制软件如果有哪怕1%的缺陷,要的就是人命。

啥也别解释。先公开2019年3月6日上海青浦的那起“特斯拉跳河案”调查报告和监控录像再说。

其实这也是为相关部门提了一个醒,即软件的设计缺陷,往往是最难检测出来的,不像后悬架拉杆或油封这一类东西,有问题一查一个准。软件代码都捏在特斯拉手里,特斯拉不公开,就算国家市场监督管理总局出面,也查不出个所以然。

而每一次OTA升级,相关车辆都会覆盖掉之前的软件缺陷,这相当于变相消除证据。所以,迄今为止,没有一款电动车因为控制软件的缺陷问题被召回,对于电动车软件缺陷的取证以及证据保留,其实是其中最艰难的一环。

那么如何解决?需要相关部门立法,每一次OTA源代码都必须上传到相关机构的数据库进行留存。但凡车企发布OTA新版本,对比旧版本看看升级了什么东西,就能知道之前的控制软件到底有没有缺陷。

在很多起特斯拉电动车涉及到的突然加速事故中,特斯拉官方最后给出的鉴定报告都会有车辆“不存在故障”的字样——这其实是个很鸡贼的说法——是否存在故障,和行驶控制软件有没有缺陷,其实是两个概念。

退一万步说,就算所有的幽灵事故都是司机误操作所导致的,那么特斯拉是不是应该对可能存在的误操作隐患给出一套像样的解决方案?作为“软件决定汽车”的代表,为何几年时间过去了,特斯拉在这一问题上依旧一筹莫展?

特斯拉官方永远不敢在事故鉴定报告上白纸黑字注明自家软件(尤其是行驶控制软件)“不存在缺陷”——你懂的。

本文来源于汽车之家车家号作者,不代表汽车之家的观点立场。

说好的自动驾驶呢!如何看待又一特斯拉撞上翻倒大货车?

埃隆·马斯克的SpaceX刚实现人类史上首次商业载人航天,他的特斯拉 汽车 就在Autopilot(自动驾驶)模式中出了一次撞车事故。

近日,在,一辆特斯拉Model 3直直撞向一辆横躺在马路上的货车,所幸,此次并无人员伤亡。据显示,当时车流量不多,公路可见度良好。

那么,问题出在哪里?警方接受媒体访时称,当时特斯拉处于Autopilot模式,时速定速约为110公里。车主本以为车子检测到障碍物会自动刹车,然而当他注意到车子没有慢下来时,他踩了刹车却已来不及。

另外,货车司机也告诉警方,称他的货车发生事故,侧翻在马路上,他自行脱困后到货车后方的分隔岛等待救援,在注意到特斯拉 汽车 直直驶向他的货车时,他曾挥手示意却没有用。

此前,特斯拉就已经发生过类似的撞车事故,其中一起也在。据当时的调查结果显示,由于接受电动车挂牌上路,并未全面开放“自动驾驶”功能,“自动驾驶”功能仅能作为,一旦发生,肇事责任仍由驾驶人负责。总而言之,车还是要驾驶人来开。

上述两起事故并无人员伤亡,但截至目前,美国就已经发生了至少三起特斯拉致死。

2019年3月,在美国德尔雷海滩附近,一名特斯拉Model 3驾驶员在事故发生时也处于Autopilot模式中,随后特斯拉撞向了一辆卡车。

图自网络。

2018年3月,在加州圣塔克拉县山景城的公路上,一名特斯拉驾驶员开启了Autopilot模式。随后,他在玩手机 游戏 的过程中,没有注意到Autopilot将车开向高速公路的分道角区,并撞向了屏障,驾驶员被送进医院后身亡。

图自网络。

2016年5月,事故发生在美国佛罗里达州的威力斯顿,一辆特斯拉Model S开启了Autopilot模式,没能发现一辆拖车的白色车身并撞向拖车,结果是特斯拉驾驶员身亡。

对于上述事故,美国国家运输安全委员会(National Transportation Safety Board)分别发布了调查报告,均认定的可能原因在于,特斯拉驾驶员未能避让车辆或障碍物,过度依赖特斯拉的自动化模式。同时,报告批评了特斯拉Autopilot的操作设计,称该设计与特斯拉的指导方针和警告有所违背,使得驾驶员能长时间脱离驾驶,使用自动模式。

需要注意的是,特斯拉将自动驾驶取名为“Autopilot”,这被不少人诟病。“Autopilot”听起来就像“自动驾驶”,然而这两者的区别并不小。

据特斯拉介绍,Autopilot自动驾驶功能“需要驾驶人主动监督,并无法使车辆自动驾驶”。

图自特斯拉。

美国高速公路安全保险协会(IIHS)的一份调查报告指出,由于当前自动驾驶系统的局限,部分厂商对自动驾驶系统的命名似乎过于夸张,使得驾驶员获得了错误信息:48%的受访者认为在使用特斯拉的AutoPilot模式时,自己能放开方向盘。当问及日产(Nissan)的半自动驾驶系统(ProPilot Assist)时,有33%的人认为能放开方向盘。随后是通用 汽车 的超级巡航(Super Cruise)和BMW的驾驶Plus(Driving Assistant Plus),比例下降至27%,奥迪 汽车 的交通堵塞助手(Traffic Jam Assist)排最后,只有21%。而在其他问题上,包括打电话、发短信、看、睡觉等,特斯拉的认可比例都超过了其他车厂。

“特斯拉的用户手册清楚地说明了Autopilot是一种驾驶员要亲自驾驶的功能(‘Hands-on feature’),但这显然没有传达给所有人”,IIHS 大卫·哈基(Did Harkey)接受媒体访时称,“制造商应该考虑其系统名称所传达的信息”。

“轰……”随着Space X载人龙飞船发射成功,并顺利完成了空间站对接任务,消息传遍全球,与此同时,特斯拉股票闻风大涨,涨幅超过7%。

“砰……”随着一声巨响,台湾某高速公路上,一辆高速疾驰的特斯拉Model 3径直撞上了一辆侧翻在道路上白色厢体货车,而这个也瞬间刷遍全球网络。

两件事发生在儿童节前后,相隔不到48小时,这也让特斯拉喜忧参半。

火箭的事,我们就不聊了,单看台湾这起撞车事故,事故的具体情形是,在2020年6月1日早上6时36分许,一辆白色厢式货车在台湾嘉义县段高速公路上发生侧翻,并占据了第一车道和第二车道,司机在等待救援的时候,后面一辆疾驰而来的特斯拉Model 3车型径直撞向了货车厢体,巨大的冲力导致货车发生前移,而特斯拉Model 3也因为冲力过大,车头穿透货车厢体,没入车厢内。但幸好这辆货车所装载的货物是一种类似奶油一样的食材,因此缓冲比较大,Model 3虽然车头损伤严重,但司机并无大碍。另外,事故发生后,后方车辆及时看到了情况,并没有造成二次事故发生。

后来,据当事司机回忆说,他当时驾驶的Model 3开启了Autopilot驾驶,车辆时速在110km/h左右,不过确实分神了,而在看到侧翻的货车时再刹车已经来不及了。另外,根据当地警方对该司机进行的酒精测试表明该司机并没有涉嫌酒驾。所以,很显然,主要责任在司机,由于太过信任特斯拉的Autopilot驾驶功能而导致思想松懈,分心驾驶,才是这起事故的主要原因,不过,特斯拉也难辞其咎。

说实话,特斯拉与厢式货车,尤其是白色厢式货车似乎有着难以莫名的缘源,因为,类似的不止发过了一次了。比如,在2016年5月7日,美国佛罗里达州发生一起特斯拉Model S在开启Autopilot驾驶状态下撞上一辆正在横穿马路转弯的白色厢式货车,Model S从货车车底穿过,车顶被削掉,驾驶员当场死亡。

而在2019年3月1日,类似的事故再次发生,同样是在美国佛罗里达州,出事的“主角”跟这次事故一样也是Model 3和一辆白色厢体货车,并且Model 3同样是在开启Autopilot状态下撞上的货车,Model 3车顶被削,司机当场丧生。

所以,这三起事故有一个最大的共同点,那就是特斯拉所撞向的车都是白色厢体的货车。只不过,早期的特斯拉Model S所搭载的Autopilot系统,无论硬件还是软件技术,都比较落后。而Model 3搭载的却是特斯拉最新一代的Autopilot技术,其在车头安装了一颗前置毫米波雷达,而且车身四周还布置了8个摄像头和12个超声波传感器,自动驾驶芯片则是来自于英伟达。

可以说,如今的Model 3相比四年前的Model S在驾驶技术上要更上一层楼,包括传感器数量、芯片处理速度、软件功能等都有了很大的提升,然而,白色厢式大货车就如同是特斯拉的魔咒,特斯拉又一次栽在这上面。不幸中的万幸是,这次事故没有造成人员伤亡。

如今的自动驾驶/驾驶,到了可以信任的程度了吗?

特斯拉Autopilot自动驾驶功能已经在全球导致多人伤亡,当然把这个“锅”全部分甩给特斯拉也有失公允,但不可否认的是,特斯拉在对其产品的宣传中的确是把Autopilot自动驾驶功能当成一个极为重要的卖点,加上特斯拉终端经销商对此功能的极力吹棒,不明真相的消费者很容易相信。

但是,道路是一个高度危险的场所,驾驶员在驾车过程中稍不留意或分神,就有可能导致事故发生;不仅如此,道路的危险之处更在于路况的瞬间万变、变化多端,即使拥有几十年驾驶经验,开过各种车型,且对道路、车辆都非常熟悉的驾驶员也并不敢保证万无一失,何况是交给只有一些固定算法的计算机系统。

所以,这里要提醒广大驾驶员朋友的是,现阶段不要听信那些所谓的自动驾驶、高级驾驶等,这些技术的存在也只是防患于未然,却并不能完全代替人类去掌控车辆。 即便你手里的车达到了所谓的L2级自动驾驶,在开车过程中,也绝对不可以将手离开方向盘,精神上也不能放松,目光和手脚都要专注于驾驶。

写在最后:特斯拉Model 3在台湾这起交通事故,再次提醒我们,当前所谓的自动驾驶还没有达到人类可以放心的程度,差距还很远,人类作为驾驶员的使命还远未结束。所以,开车出行,安全为上,驾驶过程中绝对不可以分心,更不可以手离方向盘,将自己和车上人的生命交给车来掌控。

关注车业杂谈车家号,互动将有机会赢取精美小礼品哦!

本文来源于汽车之家车家号作者,不代表汽车之家的观点立场。

标签: #特斯拉

上一篇汽车火花塞多久换一次比较好-汽车火花塞大概多久换一次

下一篇当前文章已是最新一篇了