特斯拉自动驾驶被撞怎么办-特斯拉自动驾驶事故赔款

tamoadmin 0
  1. 特斯拉刹车失灵(对自动驾驶技术的质疑)
  2. 又一起特斯拉自动驾驶撞车事故 类似曾判特斯拉车主负全责
  3. 特斯拉自动驾驶操作方法
  4. 最新通报!杭州一特斯拉“自动驾驶”撞上路灯?调查结果如何了?
  5. 特斯拉自动驾驶为何事故频发?特斯拉开启甩锅模式
  6. 特斯拉吹嘘的“自动驾驶”,竟然失灵了……
  7. 特斯拉自动驾驶又惹祸,首次致行人死亡

随着汽车技术日益发达,目前在市面上主流的L2级别“自动驾驶”,似乎见惯不怪了。但是目前业界号称拥有最高级别“全自动驾驶”技术(FSD)的特斯拉,居然会发生事故?

近日,一位网友却亲临特斯拉自动驾驶技术的事故现场。在山东临沂特斯拉中心开业的第一天,这名网友慕名而至。试驾过程中销售小哥不断对其宣讲特斯拉的FSD系统的厉害之处,这时碰巧前面有个货车调头,销售小哥就更网友说“你看它(FSD系统)一会儿就会自动减速”。

结果特斯拉FSD系统完全没有检测到前方的大车,径直就撞了上去。试驾的这辆特斯拉model?3的左前侧撞上了大货车的右后方,前脸严重变形,左前门的碰撞伤势也比较明显。好在车内人员均系了安全带,事故中只是驾驶特斯拉的销售小哥受了轻伤。

近年来,自动驾驶系统一直在升级研发,然而,虽然名字里有“自动”二字,但这项技术目前依然不成熟,距离真正的“自动”还差很远。就算在自动驾驶领域成绩斐然的特斯拉,由于“自动驾驶”引发的事故频发也是无可厚非的事实。

不得不说,“自动驾驶”这一技术有时候确实是方便我们行车的同时增加了一定的安全性。有研究表明,驾驶员打开自动驾驶功能时,每行驶459万英里有1起事故;而没有自动驾驶功能时,使用主动安全功能的驾驶者,每行驶242万英里有1起事故;对于那些既没有自动驾驶,也没有主动安全功能的驾驶者,每行驶179万英里就会有1起事故。

虽说是数据良好,但是事实是我们国内的因“自动驾驶”而发生的事故不在少数。特斯拉Model?3就在今年内,被爆出多起疑似自动驾驶技术引起严重的安全问题。其中最严重的莫过于9月5日下午,特斯拉因失控造成2人死亡6人受伤和多车受损的事故。

不过,从自动驾驶事故中我们得知,目前自动驾驶技术尚不完全成熟。消费者在使用自动驾驶功能时还是要谨慎为上,毕竟即使是特斯拉体验中心的工作人员都无法避免自动驾驶“意外”。

而且,目前量产车型中大多自动驾驶等级处于L2-L3,尚无法完全实现自动驾驶,因此无论是驾驶什么品牌的车型,在自动驾驶功能的使用上都不能完全依赖。

那么各位看官是否会选择使用L2级别的“自动驾驶系统”呢?对于“自动驾驶”系统你们又是如何看待?

本文来源于汽车之家车家号作者,不代表汽车之家的观点立场。

特斯拉刹车失灵(对自动驾驶技术的质疑)

11月18日深圳,一辆蓝色?特斯拉Model?S突然加速,撞开了一辆出租车,然后继续加速撞上了一辆货车尾部。

特斯拉自动驾驶被撞怎么办-特斯拉自动驾驶事故赔款
(图片来源网络,侵删)

这辆车的行驶状态比较特别,先是很低的速度在蠕行,随后迅速加速,而且第一次撞车之后依然没有减速。

这种操作是比较违背常规的,而且全程车辆的主动安全系统也没有介入。车主宣称是车辆失灵,特斯拉则声明是车主驾驶不当导致,双方未能达成一致。

实际上这远不是特斯拉在国内的第一起“失控”,随着Model?3去年年底正式国产,到疫情之后迅速大卖。

特斯拉近半年内,已经发生了足足9起疑似“失控”案件。司机均宣称是车辆突然失去控制,特斯拉则表示是车主操作不当,到底谁在说谎呢?

(1)事故频频,永远没有结论的罗生门

从5月21日杭州赵女士在地下***遭遇第一起“失控”开始,特斯拉几乎每隔一段时间就会出现一次“失控”。基本都是突然加速,最严重的一次是四川南充的一名用户,在富民街西门市场上车辆突然失控,造成2死6伤。

目前反响比较大的有9起,除12月12日北京那一起,未公布车主具体信息之外。其余8位车主刚好是4男4女,可见也并不是说都是女司机,错把油门当刹车,或者刹车当油门。

特斯拉的回复也比较千篇一律,比如此次深圳的“失控”,特斯拉的回复就是,根据它们的后台数据显示,在车辆加速到发生第二次碰撞,期间驾驶人一直深踩加速踏板,而没有踩刹车,因此车辆才会一直加速。

包括之前南昌的一位车主陈先生也是,车辆超高速行驶8km,然后撞土堆烧毁。特斯拉的回复是后台数据显示,司机一直在踩加速踏板,没有踩刹车。

特斯拉的所有回复都是基于后台数据,目前没有任何证据显示,后台数据是刹车时,车辆突然加速。虽然车主们并不认可,但也无可奈何。

这让功夫汽车想起来当年的高考,确实经常有一些学习本来相当不错的学生,最终考试成绩却是灾难性的。有的确实是发挥失常,有的坚信一定是批阅出现了问题。于是这部分学生就会去做一件事,查分。

那时候的查分是什么样的呢?考生和家长是看不到试卷的,如果要求查分,就会调出你这一门的试卷分数,然后把每一题的分数用计算机加一遍。因为之前本身就是计算机加的,出错的概念趋近于零,因此大部分考生和家长都是失望而归。但纵使如此,每年都还是有爆出来,确实有计算机因为种种原因“加错”的现象。

特斯拉的所谓后台数据其实也是如此,和计算机做加法一样,自然出现错误的概率极低。后台显示加速,车辆当然加速了,至于司机到底有没有踩刹车,这本身就是一个“罗生门”,司机不可能说的清楚,也根本无从证实。

(2)问题频出,控制方式是关键

普通燃油车型刹车,是通过发动机运行,驱动真空泵产生真空。踩下刹车踏板之后,通过真空助力实现刹车。而电动车多用电子助力刹车,特斯拉也不例外。就是根据踩下刹车踏板的行程大小,电机驱动制动钳夹制动盘来实现制动。

这两者本身并没有什么高下之分,但在控制实现上略有差别,而特斯拉最大的特点是,它的刹车控制与其他电动车也不一样。

特斯拉的制动系统完全是由软件控制,电控运行的,它的全部工作信号,是来源于刹车踏板上的信号传感器。然后特斯拉所有系统的软硬件控制都是一体的,并最终通过总线通讯控制。而且特斯拉的系统内部,传感器和执行器之间,极少用硬线连接,全部通过总线控制,这一点是很可怕的。

它的优势在于,系统高度集成,极大地降低了布置难度和成本,只要总控制器的系统足够强大,理论上它的控制精度会更高,响应会更快。

缺点就是缺乏后备处理机制,一些都依赖于总控制系统的稳定性和传感器的可靠性。比如普通燃油车,感觉刹车不太好用了,保养一下,或者拆开看一下,是哪个部分出现了问题,它不会一下子就失效。大多数情况会先变得不好用,再失效,并且失效后不会自动恢复。

而特斯拉的刹车失效可能就是一个瞬间,或者一个信号识别不准,它的加速信号也是一样的机理。这个概率极小,但造成的后果可能就是万劫不复的。

事实上,在特斯拉的问题频频爆出之后,已经有大量车主反馈自己也遭遇过类似问题。比如明明挂了R挡,车辆却偏偏往前窜。但这种一般是超低速状态,没有造成严重后果,而且可能系统瞬间就自我修正了。再比如高速的时候,踩刹车没有反应,重启了一下系统就好了,好在有惊无险。

这种情况很难确定到底是哪里的问题,它和传统的机械故障不一样,甚至都不可能复现,***更是无从谈起,只能说大家开车的时候多多注意了。

(3)自动驾驶变自动驾驶,背后的逻辑是什么?

除了频出的“失控”外,特斯拉的另一块心病,恐怕是由于车主用自动驾驶功能所出现的问题。特斯拉刚刚进入中国时,“Autopilot”的中文翻译是“自动驾驶”,后面因为问题频出,又自己改成了“自动驾驶”。

因为它自己也知道,自己的驾驶技术,仍处在Level?2级别,离真正的自动驾驶还比较远。

比如前不久一辆特斯拉轿车,在高速上撞上了一辆货车。车主的解释是,看四下无人,而且路况良好,就打开自动驾驶功能开起了小差。没曾想突然窜出来一辆大货车,他以为主动刹车功能会触发,没想到并没有,等到自己猛踩刹车,已经为时已晚,还是撞上了。

这个问题小车的责任其实并不算大,但自动驾驶模式为什么没能主动刹车,就值得探究一下了。主要是由于当时的环境决定的,当时天气比较好,阳光很刺眼,再加上货车本身也是白色的,可能导致系统没能及时识别,从而产生误判。

而关于特斯拉启动自动驾驶时,撞上消防车,撞上清扫车,撞上环卫车,或者撞上路边警车的新闻也频出无穷。这些案例单独拿出来本不值一提,但集中到一起,就指向一点。特斯拉的自动驾驶技术,对于静止或者低速运动的车辆,识别能力不足,这是由它的控制逻辑决定的。

事实上目前的半自动驾驶技术,确实能在一定程度上解放驾驶人,但同时也非常容易诱发事故。

因此特斯拉官方一直在强调,使用Autopilot功能时仍然要注意路面和方向盘,它只能驾驶,并不是自动驾驶。但是销售和拥垒们,却一直在吹嘘特斯拉的自动驾驶可以完全“不用管”。

(4)功夫拍案

任何技术都会有一个成熟的过程,比如早期的双离合变速箱,原理上讲应该换挡更快,传递效率更高。但实际用起来顿挫到令人害怕,并且极容易坏。

当累积了足够多的用户数据之后,现在新一代的双离合变速箱,确实已经算是比较好用了。虽然还时有顿挫,但多数时候还是很顺滑,响应很快的。但对第一批车主来说,可能就不知不觉当了小白鼠。

特斯拉在设计上确实有一些较为激进的理念,对或者错目前很难判断,也许它累积足够多的用户数据之后,会越来越完善。但前期尝鲜的用户们,一定要多加注意和小心。

毕竟系统的一点点小小的误差,对用户家庭来说可能就是万劫不复。

本文来源于汽车之家车家号作者,不代表汽车之家的观点立场。

又一起特斯拉自动驾驶撞车事故 类似曾判特斯拉车主负全责

在2016年5月7日,一名特斯拉车主在使用自动驾驶模式下发生了一起事故,导致,车主不幸身亡。这一引起了全球范围内的关注和讨论,也让人们开始对自动驾驶技术的安全性和可靠性产生了质疑。

经过

据报道,当时特斯拉车主乘坐的是ModelS车型,他在使用自动驾驶模式下行驶时,车辆突然撞上了一辆卡车。事故发生后,特斯拉公司发布了一份声明,称这起事故是由于车主未能及时刹车导致的。但是,这一说法并没有得到公众的认可。

在经过多方调查和分析后,人们发现了一个重要的事实:特斯拉车辆的自动驾驶技术在遇到白色物体时容易出现失灵。而卡车正是白色的,这也是导致发生的原因之一。

对自动驾驶技术的质疑

这一引起了全球范围内对自动驾驶技术的质疑。虽然自动驾驶技术在提高车辆安全性和减少交通事故方面具有潜力,但是在实际应用中,它还存在很多问题和隐患。

首先,自动驾驶技术的可靠性和安全性还没有得到充分验证。虽然特斯拉等车企在测试自动驾驶技术时进行了多次试验和实践,但是在实际应用中,仍然存在很多问题和隐患。比如,在遇到复杂的路况和天气条件时,自动驾驶技术可能会出现失灵,从而导致。

其次,自动驾驶技术的普及还需要时间。虽然自动驾驶技术在未来有望成为主流,但是在实现这一目标之前,还需要解决很多问题和难题。比如,如何确保自动驾驶技术的安全性和可靠性,如何规范自动驾驶技术的使用,如何保护消费者的权益等等。

特斯拉自动驾驶操作方法

埃隆·马斯克的SpaceX刚实现人类史上首次商业载人航天,他的特斯拉 汽车 就在Autopilot(自动驾驶)模式中出了一次撞车事故。

近日,在,一辆特斯拉Model 3直直撞向一辆横躺在马路上的货车,所幸,此次并无人员伤亡。据显示,当时车流量不多,公路可见度良好。

那么,问题出在哪里?警方接受媒体访时称,当时特斯拉处于Autopilot模式,时速定速约为110公里。车主本以为车子检测到障碍物会自动刹车,然而当他注意到车子没有慢下来时,他踩了刹车却已来不及。

另外,货车司机也告诉警方,称他的货车发生事故,侧翻在马路上,他自行脱困后到货车后方的分隔岛等待救援,在注意到特斯拉 汽车 直直驶向他的货车时,他曾挥手示意却没有用。

此前,特斯拉就已经发生过类似的撞车事故,其中一起也在。据当时的调查结果显示,由于接受电动车挂牌上路,并未全面开放“自动驾驶”功能,“自动驾驶”功能仅能作为,一旦发生,肇事责任仍由驾驶人负责。总而言之,车还是要驾驶人来开。

上述两起事故并无人员伤亡,但截至目前,美国就已经发生了至少三起特斯拉致死。

2019年3月,在美国德尔雷海滩附近,一名特斯拉Model 3驾驶员在事故发生时也处于Autopilot模式中,随后特斯拉撞向了一辆卡车。

图自网络。

2018年3月,在加州圣塔克拉县山景城的公路上,一名特斯拉驾驶员开启了Autopilot模式。随后,他在玩手机 游戏 的过程中,没有注意到Autopilot将车开向高速公路的分道角区,并撞向了屏障,驾驶员被送进医院后身亡。

图自网络。

2016年5月,事故发生在美国佛罗里达州的威力斯顿,一辆特斯拉Model S开启了Autopilot模式,没能发现一辆拖车的白色车身并撞向拖车,结果是特斯拉驾驶员身亡。

对于上述事故,美国国家运输安全委员会(National Transportation Safety Board)分别发布了调查报告,均认定的可能原因在于,特斯拉驾驶员未能避让车辆或障碍物,过度依赖特斯拉的自动化模式。同时,报告批评了特斯拉Autopilot的操作设计,称该设计与特斯拉的指导方针和警告有所违背,使得驾驶员能长时间脱离驾驶,使用自动模式。

需要注意的是,特斯拉将自动驾驶取名为“Autopilot”,这被不少人诟病。“Autopilot”听起来就像“自动驾驶”,然而这两者的区别并不小。

据特斯拉介绍,Autopilot自动驾驶功能“需要驾驶人主动监督,并无法使车辆自动驾驶”。

图自特斯拉。

美国高速公路安全保险协会(IIHS)的一份调查报告指出,由于当前自动驾驶系统的局限,部分厂商对自动驾驶系统的命名似乎过于夸张,使得驾驶员获得了错误信息:48%的受访者认为在使用特斯拉的AutoPilot模式时,自己能放开方向盘。当问及日产(Nissan)的半自动驾驶系统(ProPilot Assist)时,有33%的人认为能放开方向盘。随后是通用 汽车 的超级巡航(Super Cruise)和BMW的驾驶Plus(Driving Assistant Plus),比例下降至27%,奥迪 汽车 的交通堵塞助手(Traffic Jam Assist)排最后,只有21%。而在其他问题上,包括打电话、发短信、看、睡觉等,特斯拉的认可比例都超过了其他车厂。

“特斯拉的用户手册清楚地说明了Autopilot是一种驾驶员要亲自驾驶的功能(‘Hands-on feature’),但这显然没有传达给所有人”,IIHS 大卫·哈基(Did Harkey)接受媒体访时称,“制造商应该考虑其系统名称所传达的信息”。

最新通报!杭州一特斯拉“自动驾驶”撞上路灯?调查结果如何了?

特斯拉自动驾驶的操作方法是:全自动驾驶、自适应巡航。

1、全自动驾驶

特斯拉的全自动驾驶技术是自动驾驶系统中最高级别的。在全自动驾驶模式下,车辆可以在不需要驾驶员干预的情况下完成所有的驾驶操作,包括加速、刹车、转向等。这种模式下,驾驶员只需在车辆进入目的地附近时进行确认,车辆就能够自动停车。

2、自适应巡航

自适应巡航是特斯拉自动驾驶系统的一个基本功能。在自适应巡航模式下,车辆会根据前方车辆的速度和距离进行自动加减速,以保持安全的行车距离。此外,自适应巡航还可以根据路况自动调整车辆的速度和行驶方式,确保驾驶过程中的安全性和舒适性。

特斯拉自动驾驶的缺点

斯拉自动驾驶的安全性一直备受争议,尽管特斯拉公司一直强调自动驾驶系统的安全性,但在实际应用中还是出现了一些事故。例如,特斯拉车主在使用自动驾驶模式时发生事故,导致车主死亡。此外,特斯拉自动驾驶的雷达和摄像头等传感器也存在着失灵的情况,这可能会导致车辆行驶时出现危险。

目前,全球各国对自动驾驶技术的法规尚未完善,这也给特斯拉自动驾驶的推广和应用带来了一定的困难。例如,美国联邦曾于2016年发布了自动驾驶汽车的指导方针,但这些指导方针并没有法律效力,各州也没有完全遵守这些指导方针。

以上内容参考百度百科-特斯拉

特斯拉自动驾驶为何事故频发?特斯拉开启甩锅模式

车是生活中常见的交通工具,给人的生活提供了很大的方便,也提升了家庭的幸福感,拥有了小汽车,在外出的时候终于不用挤公交挤地铁了,在周末的时候还可以带着亲朋好友外出游玩,是很惬意的一件事。随着社会上车辆越来越多,在道路上行驶的时候发生的交通事故,问题也日益严峻。在杭州一辆特斯拉自动驾驶撞上路灯,警察调查之后发现结果反转。

在浙江杭州发生了一起,这个事故和其他的不同。据车主介绍,当时他正在副驾驶上面乘坐,使用的是特斯拉自动驾驶的功能,没想到车辆却撞上了路边的路灯。司机介绍自己在和朋友一起吃饭的时候喝了酒,他准备叫代驾。代驾行驶在北门的时候无法进入,随后他就坐到了副驾驶的位置上,使用了自动驾驶功能开往北门。

在行驶的过程当中,车辆却突然失控,冲出路面,撞上了路边的灯杆以及路旁的座椅。对于司机的说法,特斯拉方面却称车主撒谎,因为特斯拉汽车设计了重力感应设置,如果驾驶室没有人,那么车辆根本就没有办法启动。交警到达了事故现场,就对车主进行酒精测试,并且将他带去医院抽血检测。警方在调查之后确定在车辆当中,只有他一个人,他全程都是坐在驾驶位。

这位男子的检测结果显示醉酒驾驶,因为他违反了交通规则被吊销驾驶证,他在5年之内不可以取得驾驶证。这位男子在酒后开车实在是太危险了,一旦发生事故,后果不堪设想。如果撞到了人不仅会钱财面临损失,有可能还面临着牢狱之灾。他竟然还骗警察说自己是坐在副驾驶室,特斯拉官方回复也让他打脸。

特斯拉吹嘘的“自动驾驶”,竟然失灵了……

近日,一辆?特斯拉Model?X?在韩国发生严重交通事故,引起了社会各界的广泛关注,本次事故造成一死两伤。司机透露,事故发生时车辆出现失控并撞向墙。据悉,事故发生后导致首尔一处公寓楼停车场起火,仅灭火就耗费了近一个小时,韩国警方已经展开事故原因调查。

其实特斯拉的安全事故从一开始就从未停歇,早在2018年3月23日,38岁的苹果软件工程师黄伟伦驾驶特斯拉Model?X,在加利福尼亚州山景城附近的高速公路上发生严重,不仅车身被撞得七零八落,同时因为动力电池的破损导致车辆迅速起火,黄伟伦因抢救无效死亡。据了解,发生时,黄伟伦驾驶的特斯拉Model?X是在自动驾驶模式下,以约70英里/小时(113公里/时)的速度行驶。

NTSB在报告中表示,在特斯拉致命撞车事故发生前的最后6秒钟内,方向盘未能检测到黄伟伦的手,也没有证据表明其有制动或回避的行为。NTSB还发现了黄伟伦在驾驶过程中使用智能手机的证据。

根据特斯拉方面的证词,特斯拉在Autopilot接管汽车的最后18分钟里,系统没有检测到黄伟伦的手放在方向盘上,并发出了两次视觉警报,提醒他的手不要离开方向盘。特斯拉车主们表示,在使用Autopilot自动驾驶仪系统时,他们可以避免长时间握住方向盘,但特斯拉建议他们在使用该系统时还是要将手放在方向盘上,并集中注意力,显然,黄伟伦的行为违背了特斯拉驾驶安全手册上明令禁止的行为。

除此之外,还有著名的Model?3高速撞车,事故发生前夕,一辆正常行驶的特斯拉Model?3在高速行驶时,径直撞上了一台在高速公路发生事故的白色货车,随后,特斯拉对此发布声明,承认了当时的车机系统对于白色物体的判断容易出现误差,为此修改了自动驾驶功能开启的条件,司机必须时刻手扶方向盘并监测路面情况,准备时刻接管车辆。

今年1月,美国国家公路交通安全管理局(NHTSA)表示,将开始审查一份来自独立投资者Brian?Sparks的***书,该***书声称特斯拉汽车存在意外加速隐患,可能波及2013年到2019年生产的50万辆特斯拉汽车。

据悉,这份***书援引了许多媒体关于特斯拉电动汽车意外加速造成撞车的报道,包含127起投诉报告,涉及123辆特斯拉汽车和110起撞车事故,52人受伤。

该份报告显示,当车主试图将特斯拉车辆停在***或路边时,这些车辆会突然加速,如果发生在交通行驶过程中或使用驾驶系统时,就会导致撞车事故。

特斯拉官方发布声明表示:特斯拉车辆不存在“意外加速”情况。特斯拉同时称,***书完全是虚的,是做空机构对特斯拉的抹黑。我们分析了我们了解到的每一起车辆意外加速的驾驶数据,结论是特斯拉汽车在所有中都按照设计要求正常运行。也就是说只有当驾驶员让汽车加速时,汽车才会加速,当驾驶员踩下制动后,车辆会正常减速或停止,但已经发生的多起中,驾驶员都未能按照特斯拉的使用说明将手放置在方向盘上并时刻监测路面环境。”

本文来源于汽车之家车家号作者,不代表汽车之家的观点立场。

特斯拉自动驾驶又惹祸,首次致行人死亡

汽车的智能化是目前的大势所趋,但相比传统车企,造车新势力的胆子明显更大一些,以特斯拉为代表的造车新势力甚至能够实现特定场景下的“自动驾驶”,这也成为了特斯拉的最大卖点,否则没人会愿意为粗糙的组装工艺和塑料感满满的内饰买单。但俗话说“常在河边走哪有不湿鞋”,特斯拉Model?3最近在一场自动刹车测试中翻了车。

在近日某汽车厂商进行的自动刹车测试中,特斯拉Model?3在人横穿马路项目中出现了意外,面对移动的人,Model?3的AEB自动刹车毫无反应,导致人被撞飞。一般情况下,装有AEB自动刹车功能的车型在遇到物体横穿马路时或多或少都会进行制动,而Model?3却径直撞了过去。

从配置表来看,特斯拉目前在售的新车均会配备基础的驾驶功能,其中就包括了AEB自动刹车。但在上述测试中,特斯拉Model?3的AEB自动刹车面对人“无动于衷”,发生了碰撞,属实离奇。有网友调侃道:“因为它识别出是人”。

对于网络上流传的对比测试,特斯拉很快做出了回应,称“汽车行业检测专业性强,任何非正规官方检测且断章取义的,只会误导广大群众和消费者,且对整个汽车行业带来伤害”。但这一回应遭到了汽车大V闫闯的回怼。

事实上,这已经不是特斯拉的自动驾驶功能第一次出问题了。2018年3月1日,美国佛罗里达州一起严重,发生事故的特斯拉汽车在事故发生前开启了Autopilot功能,即自动驾驶。2016年美国佛罗里达州,一辆特斯拉Model?X在开启Autopilot功能的情况下,失控撞上一辆拖拉机,导致驾驶员死亡。2018年3月发生在美国加利福尼亚州的一次致命中,特斯拉Model?X的Autopilot也处于启动状态。

自动驾驶成了一把双刃剑,既是特斯拉的金字招牌,又是特斯拉的安全隐患。尽管特斯拉在后期的软件升级中限制了车主对于自动驾驶功能的滥用,但不可否认,大多数特斯拉车主会在开启自动驾驶之后心不在焉,将自己的生命安全交给电脑,这难道不是一件荒唐的事情吗?

试问有哪家技术实力雄厚的传统车企做不出自动驾驶?但传统车企在自动驾驶方面的步伐,相比造车新势力要谨慎得多。传统车企不缺乏卖点,奔驰可以说自己豪华,宝马可以说自己运动,奥迪可以说自己科技,轮到特斯拉呢?所以特斯拉只能铤而走险,用尚不成熟但新奇的功能吸引消费者注意。

不只是特斯拉,其他的造车新势力包括小鹏、蔚来、理想等,都在竞相推出自动驾驶功能,妄图走特斯拉的老路,博取消费者的关注。消费者并不都是理智的,在销售人员天花乱坠的吹嘘下,很可能冲动之下就成为了车主,但自动驾驶背后的风险,却鲜有销售人员对车主进行说明。

汽车发展到今天,开始变得越来越电子化,不论是内部增加的大屏还是外部增加的雷达,都正在慢慢改变汽车的单一属性,汽车不再是单纯的交通工具,它也可以是电子产品。相比传统车企,造车新势力的产品大多数都是电子产品,但必须注意的是,酷炫背后是随时“死机”的安全风险。

本文来源于汽车之家车家号作者,不代表汽车之家的观点立场。

文/田忠朝

最近特斯拉又吃官司了,因为自动驾驶致人死亡被告上了美国加州圣何塞联邦***(特斯拉总部附近)。

起因是此前东京Tomei高速公路外侧发生了一起小事故,44岁日本男子Yoshiro Umeda下车查看碰撞情况,并与其他人一起站在一辆货车后面。

而肇事的Model X正处于自动驾驶状态,车主打了个小盹,它的前车发现前方事故后立刻变道离开,Model X 则加速撞上了人群,致使Yoshiro Umeda当场死亡。

▲大概类似这种情况

这也是特斯拉自动驾驶以来,首起致行人死亡的事故,此前的死亡人员基本都是车主本人。

从这起事故中不难看出,Model X车主要承担一定的责任,因为他没有尽到驾驶员的责任。

但肇事的Model X就无责了吗?

Yoshiro Umeda的家人认为,这起事故是特斯拉自动驾驶缺陷造成的,为什么自动驾驶系统没有识别前方障碍物(行人),反而加速撞了上去?

我想可能的解释就是特斯拉自动驾驶系统默认高速路上不会出现行人,在它的系统中障碍物只可能是车辆或雪糕筒,所以前车变道离开后,Model X认为前路畅通,反而加速。

事实上,特斯拉自动驾驶系统未能正确应对前方障碍物这种情况,已经不是第一次发生。早在2016年国内就发生过首起特斯拉自动驾驶致车主死亡事故,当时一辆Model S在自动驾驶状态下追尾前方道路清扫车,造成河北籍车主死亡。

同年美国加利福尼亚州也发生的一起Model S的致死事故,让特斯拉自动驾驶功能的安全性被广泛关注。

最后特斯拉不得不将新车的“Autopilot”中文翻译从“自动驾驶”改为“自动驾驶”,逃避“夸大宣传”的法律责任。

包括后来的Uber自动驾驶致死案,都归罪于系统不能正确应对前方障碍物,包括无法识别或识别后未能作出正确应对措施。

但不管哪种,从这些事故中可以看出,目前的自动驾驶系统确实存在缺陷,在功能尚不能完全确认有效的机制下对公众开放使用,是一种不负责任的表现,特斯拉应该为此买单。

特斯拉自动驾驶事故率远低于人工驾驶?

当然,我们也听到了另一种声音,有人说,特斯拉在规定使用自动驾驶的情况下,事故率远低于人工驾驶,所以不能宽容“人工事故”而“苛求”自动驾驶。

的确,我们不能否认自动驾驶为道路安全做出的贡献,但也不可否认,很多人错用自动驾驶功能。

根据美国自动驾驶划分标准,目前特斯拉自动驾驶并没有达到L3级别,顶多可以“脱手驾驶(Hands Off)”,并不能做到“脱眼驾驶(Eyes Off)”,至于在驾驶中睡觉(Mind Off)这种行为,至少也是L4级别的自动驾驶才可能允许的。

现在那些驾驶特斯拉睡觉的车主,真不知道是心大还是无知?

为什么特斯拉自动驾驶系统允许车主睡觉?

在大部分特斯拉自动驾驶事故中,都有一个共同原因,“车主在打盹,车主在睡觉”,这也是特斯拉一直推脱责任的理由。

我们知道,很多车企在开发自动驾驶系统时都明确强调,当车辆监控到车主无***确回应时,会强制退出自动驾驶状态,允许车主开着自动驾驶睡觉这种事也只有特斯拉能干,放到奥迪等其他车企身上,估计早就被人口诛笔伐了。

只能说特斯拉这几年一直在打擦边球,靠自动驾驶拉高自己科技企业的光环,为此赚到不少吆喝,谈到自动驾驶大家只先想到的就是特斯拉,这种宣传价值远远高于几次事故带来的声誉损失。

说到底特斯拉确实在拿车主和行人当小白鼠,以便从现实交通中积累自动驾驶经验。而有一些无良车主,在缺乏监管的条件下又缺乏很好的自律性。两边的共同行为对公共交通安全形成了极大的威胁。

可以预料,这种行为不加以约束的话,随着越来越多的特斯拉车辆上路,对行人的威胁将越来越大。

如此看来,真不知道特斯拉汽车应该称为科技座驾还是马路杀手。

本文来源于汽车之家车家号作者,不代表汽车之家的观点立场。

标签: #特斯拉