特斯拉季度安全报告称:自动驾驶功能让事故率降低7倍-特斯拉自动驾驶事故率

tamoadmin 0
  1. 特斯拉全球大宕机!疯狂的汽车智能化,终将带来大混乱吗?
  2. 深度如果特斯拉“减配门”发生在美国会是什么后果?
  3. 特斯拉五大缺点 特斯拉电动汽车的五个缺陷
  4. 特斯拉车性能怎么样?
  5. 又一名车主身亡,别被“自动”驾驶忽悠了
  6. 特斯拉自动驾驶又惹祸,首次致行人亡

特斯拉近年来在质量方面一直面临着一些问题和挑战。以下是一些特斯拉目前体现的质量问题:

一、质量控制问题:特斯拉生产的汽车存在质量控制问题。有些车主抱怨车辆的漏水、噪音和电气故障等问题。例如,特斯拉 Model Y车型的后座门存在定位偏差,导致关不上或难以关上。

二、制动系统问题:有些特斯拉车主抱怨制动系统存在问题。有些车主表示,他们的车辆制动时存在嘎嘎声或者刹车距离过长等问题。这些问题可能影响到汽车的安全性能。

特斯拉季度安全报告称:自动驾驶功能让事故率降低7倍-特斯拉自动驾驶事故率
(图片来源网络,侵删)

三、自动驾驶问题:特斯拉的自动驾驶功能也存在一些问题。有些车主抱怨在高速公路上使用自动驾驶功能时,汽车无***确识别路标和其他车辆,从而导致交通事故。

四、电池问题:特斯拉的电池也存在一些问题。例如,特斯拉 Model S和Model X车型的电池存在过热和起火的风险,这可能导致车辆安全性能下降

总之,特斯拉目前存在一些质量问题和挑战,需要不断努力来解决这些问题,以提高汽车的可靠性和安全性能。

特斯拉全球大宕机!疯狂的汽车智能化,终将带来大混乱吗?

撰文?/?朱?琳

编辑?/?温?莎

设计?/?杜?凯

来源?/?Forbes,作者:Brad?Templeton

10月20日,特斯拉发布了一个***的测试版,面向其部分早期用户。该测试版被埃隆?马斯克(Elon?Musk)称为“功能完整的完全自动驾驶”。该公司还宣布,将目前出售给车主的“FSD?in?the?future”套装的价格上调2000美元(现价10000美元),以便他们在准备就绪时可以使用该软件。

该软件包给许多用户留下了深刻印象。一些人在Youtube上发布了该系统在城市街道上运行的***。尽管有这个名字,但“完全”自动驾驶既不是自动驾驶,也不是业内大多数人所说的完全自动驾驶。更准确的说法是,它是在城市街道上运行的特斯拉“Autopilot”。

像Autopilot一样,它需要驾驶员不间断的监控,也确实会发生错误,需要驾驶员的控制以避免事故的发生。它可以处理各种各样的城市街道,但不能应对车道或停车场,所以人类司机在旅程的起点和终点都要开车。之前的Autopilot只操作高速公路、乡村公路和部分城市快速路,不操作标志、交通信号灯等基本要素。

该车辆的功能比我在那工作时的Google?Chauffeur(现在的Waymo)在2010年展示的稍好,尽管重要的是它仅使用摄像头和最小限度的地图即可完成工作,而Chauffeur需要使用详细的地图和激光雷达,并尽量减少使用摄像头。

这十年间,神经网络计算机视觉的能力得到了突飞猛进的发展。特斯拉做出了很大的努力——仅在主要参与者中有效——避免了激光雷达,并严重依赖于摄像头(还有雷达,这是每个人都在使用的)。

***显示,这些车辆在各种街道和十字路口行驶。这包括没有标志的小街道,大的多车道街道,合理复杂的十字路口,包括无保护的转弯等等。这就是特斯拉所谓的“功能完整”——它至少在所有典型的路线上做了一些事情。

虽然我们不能从一小部分***中得出确切的结论,但可能会有施工和一些等级的道路的问题,我们看到了白天和晚上,但还没有看到恶劣天气下的***。

这些***中,有一些必要的干预——人类司机必须抓住方向盘,控制局面,以避免极有可能发生的事故。虽然没有关于需要这些的频率的统计数据,但这种干预似乎相当频繁。这是需要持续人工监督的系统规范,也是他们需要这种监督的原因。

有的完全自动驾驶汽车项目都需要一个或两个“安全司机”在方向盘后面,他们也需要做这样的干预,一开始很频繁,随着时间的推移越来越少。

直到最近,Waymo和现在的Nuro才部署了没有监管司机的车辆。Cruise最近获得了这样做的许可,但还没有实施,他们声称可能会在今年年底实施。亚马逊的Zoox也有这样的许可证。

根据特斯拉的***和声称,在埃隆?马斯克的通勤中,他通常很少干预驾驶,有时根本没有干预,但这“似乎在大多数情况下都是有效的”。在现实中,我们要计算需要干预的频率。

据报道,特斯拉的Beta测试只对有较高安全记录的司机进行,但没有透露测试是如何进行的,这给我们带来了一些大问题:

这种干预有多频繁,情况有多严重?

特斯拉在没有经过培训和合作伙伴的情况下,能有效地让客户扮演自动驾驶汽车安全司机的角色吗?这与优步在发生致命事故时的做法有何不同?

特斯拉决定不使用激光雷达和详细地图,这对他们系统的质量有什么影响?

驾驶员可以安全地使用它吗?通过测试又能得到什么呢?

这合法吗?

干预的频率有多高?

人们不能从这些***中辨别,但我们可以比较一下人类发生事故的频率。

有时候,干预会在不需要的时候发生,所以真正需要衡量的是“必要的”干预,即没有干预就会发生不好的事情。许多团队使用模拟器来模拟在没有干预的情况下会发生什么。“坏事”可以指严重的事故,或者只是指明显的驾驶失误,比如短暂地转向另一条车道,即使你很***,车道上没有车。

人类每10万英里就遭遇一次事故,普通驾驶大约需要8-10年的时间。保险公司每25万英里(25年)就会遇到一次,警察每50万英里(40-50年)就会遇到一次。

***的是,亡非常罕见——人类驾驶每8000年发生一次,高速公路上每2万年发生一次。这对任何一个司机来说都是罕见的,我们开得太多,所以我们才会遇到那么多。

就其本身而言,整天驾驶无需干预似乎非常令人印象深刻,尤其是对那些初入这一领域的人来说,但这距离真正实现完全自动驾驶,而不是监控驾驶员***的目标还有很长的路要走。

这种测试方式可以吗?

如果没有受过良好训练的安全驾驶员,并且每辆车配备两名驾驶员,大多数自动驾驶团队是不会测试这种水平的系统的。

优步对其安全司机的培训很差,该公司承认,发生事故时,每辆车只安排一名司机是错误的。这起事故的主要责任是安全司机无视所有规则,用手机看电视而不是工作,但我们知道其他特斯拉车主也会做类似的事情。

另一方面,Autopilot表明,对于遵循良好程序的驾驶员来说,安全使用Autopilot是可能的。

统计数据显示,在高速公路上使用Autopilot的特斯拉司机不如不使用的司机安全,但安全程度只是略有下降。(特斯拉公布了误导性的数据,声称它们更安全。)这种较低的安全水平可能可以解释为这样一个事实:一些司机正确地使用了它,是安全的,而另一些司机则没有,从而降低了平均水平。

我的经验是,使用它的一个好方法是在你的头脑中一直保持“影子驾驶”,即脑中想着移动你的手但不施加压力,当汽车转动方向盘时让你的手随着方向盘移动。用这种方法,如果方向盘不像你想要的那样移动,你可以快速地从轻力转变为实力,推动方向盘到它应该去的地方。

但并不是所有的司机都这么做,有些人不这么做,甚至试图打破特斯拉的警告。许多人认为,车内的摄像头监控着司机的视线,以确保注意力得到了关注。其他竞争系统也这样做。特斯拉对此进行过实验,但迄今为止拒绝***取此类对策。

当然,让细心的司机测试这个软件对特斯拉来说是非常有价值的。这就是为什么其他公司花费数百万美元来支付安全驾驶员在几个州进行试车的原因。

马路中央也有拐角案例

所有这些测试的目的都是为了解决部署这些汽车的难题。在没有持续干预的情况下,在普通道路上驾驶相对“容易”(但要做到特斯拉所做的,即在没有激光雷达和地图的城市街道上驾驶,就比较困难)。

即使你能处理99.9%的情况,你也只是达到目标的一小部分。你需要找到所有那些不寻常和罕见的***,人们称之为“拐角案例”。但这些不只是发生在角落里,找到它们中的大多数是一个非常漫长和困难的项目。Waymo的顶尖团队耗费了十年时间来做这件事。没有人真正做到过。

在网络***中,司机们所表达的喜悦之情,是那些外行人的心声,他们以为得到99.9%的答案就能解决99.9%的问题。但它解决的问题还不到1%的十分之一。

驾驶***工具中,通过人工监视,你可以让人工监视人员处理剩下的问题,作为人类一般的问题解决者,我们通常可以这样做。

也就是说,特斯拉有一个很棒的测试工具。司机们不再花钱找人来测试车辆,而是为这样做的特权付费。这让特斯拉比其他任何公司都能以更低的成本更快地积累里程,他们自然想要利用这一点。

这对特斯拉来说是个好消息,因为当我说他们已经走了千分之一的路时,你可能认为这意味着他们还有几千年的工作要做。好消息是,由于团队随着时间的推移越来越快,他们做后期的工作比早期的工作更快。

Waymo可能花了2年时间才达到1/1000,但再过10年,他们就差不多达到目标了。这是因为随着时间的推移,他们都壮大了自己的团队和测试队伍,也接触到了各种各样的新技术,比如神经网络、高级模拟等等。

特斯拉一直在这么做,而且还制造自己的处理器,几乎和谷歌自己定制的处理器一样好。摩尔定律还没有消亡,它不断提供更多的工具来加快其余工作的进行。但目前特斯拉还有很长的路要走。

地图和激光雷达

到目前为止,我们所看到的并不能告诉我们很多关于特斯拉避开激光雷达的争议选择和相关问题。

特斯拉希望利用摄像头和神经网络创建虚拟激光雷达,告诉他们摄像头看到的视觉目标有多远。这些***向我们展示了他们对汽车和其他障碍物闪烁的感知,这在这些视觉系统中很常见,但也显示出他们还没有完全实现。

我们进一步了解了他们不使用详细地图的决定。人们试图在没有地图的情况下开车,以避免地图成本,并能够立即处理整条道路而无需绘制地图。地图可为你提供更多数据(即使它们错了并且道路已经改变),可以帮助你更安全。

不管你对地图的成本有什么看法,你很快就会想到没有它们的情况,而不是你想在第一批上路的汽车上做的事情。我们可以在特斯拉“FSD”的***中清楚地看到这一点,该***向左转弯并带有分隔线。

在这个***中,你看到车辆左转。在几乎恰好一分钟的时间内,汽车针对要驶入的道路计算出了一个错误的地图,从而将道路分隔线放置在错误的位置。它试图驶进迎面而来的车流中,但司机接管了它,把车开进了正确的车道。

一辆没有地图的汽车在驾驶时,它的地图就会自动生成。它必须弄清楚所有的路缘、车道、标志和交通控制系统在哪里,以及每条车道的规则,然后从中选择驶入哪条车道以及如何驶入。

一辆有地图的汽车依赖于之前通过交叉路口的经验,以及对数据理解的人类质量保证。它仍然需要了解现场情况,特别是道路发生变化的任何地区,当然还要了解道路上所有移动的东西,但首先要做的是让路面更安全。

特斯拉自然会努力使自己的汽车更好地处理这样的路口,而不会再次犯同样的错误。而且,他们的车队意味着他们将迅速获得有关此方面的报告,并在进行必须进行的逐步改进方面具有优势。

但是,尚无法从摄像头图像完全了解道路的布局,这就是为什么大多数团队都觉得拥有包含所有细节的地图可以使它们更安全,功能更强大,即使制作和维护地图要花钱,并且它最初限制了可提供更高安全性的驾驶区域。

这是合法的吗?

其中一些测试人员在加州。这让人想起了早期的一个***,当时由安东尼·莱万多夫斯基(Anthony?Levandowski)领导的优步自动驾驶团队试图在加州测试优步的车辆。加州法律要求测试自动驾驶汽车必须获得许可。

优步并不想获得许可,尽管莱万多夫斯基参与了起草这部法律的谈判。优步声称,由于法律豁免了“司机***”系统需要许可,优步并不需要许可,因为他们在任何测试车辆上都有一名安全司机,因此这就是司机***。

汽车制造商一直在推动在法律中加入驾驶员协助例外条款,因为他们不希望他们销售的***系统突然需要许可。

加州车管所说“不行”。毕竟,既然每个人都使用安全驾驶员,那么法律就毫无意义,任何汽车都不需要许可证。

他们的观点是,如果你真的试图制造一辆自动驾驶汽车,你需要许可证,即使你有一个人作为正式司机监控它。他们告诉优步,他们将吊销所有优步车辆的牌照,除非他们排队等候。

这使特斯拉处于一种不寻常的状况。特斯拉的高速公路版Autopilot是驾驶员的***工具,不需要许可证。但是他们将这个Beta测试版本称为“完全自动驾驶”。

正如我在上文中所断言的那样,这并不是像大多数行业内部人士所说的那样是真正的自动驾驶或完全自动驾驶,但是只要特斯拉说这是制造自动驾驶汽车的努力,许可证法似乎可能适用于他们,并关闭该州以及可能具有类似规则的其他州的Beta版程序。

本文来源于汽车之家车家号作者,不代表汽车之家的观点立场。

深度如果特斯拉“减配门”发生在美国会是什么后果?

特斯拉这次翻车,把整个纯电动车行业都拖上了风口浪尖。

本来上周三该是个喜庆日子,特斯拉年度投资者大会,也是行业期待已久的特斯拉电池日终于来了,不知道多少人守着电脑,就为了看一眼马斯克的“百万英里电池”。

结果大电池没看着,新鲜出炉的饼吃了不少,又是三年后降三成价,又是上海工厂要提高产能,依然没能拉住股价下跌

电池日当天,特斯拉市值跌至3953.01亿美元,蒸发了500亿美元。

祸不单行,还不到一天时间,特斯拉就出现了全球性断网,系统宕机连带着无数辆车一起瘫痪。有车主因此在各种地方被自己的车拒之门外,最倒霉的一个车主被困在沙漠里,呼救了几个小时也没等来救援。

问题,就出现在 汽车 智能化上。

在**《速度与***8》中,女黑客Cipher动了几下手指就能让纽约市的交通陷入一片混乱,而他所使用的便是自动驾驶 汽车 。通过侵入自动驾驶 汽车 的系统,远程操控,让 汽车 从楼上掉下去,在街头上演追逐大戏。

特斯拉这种行业扛把子,都还能出现这种严重的纰漏,那些以“ 汽车 智能化”,“AI电动车”为重要构成的新能源造车势力,会不会出现规模更大,情况更严重的安全操控问题?而 汽车 智能化,到底都是些什么东西,又会走向哪里去?它的隐患,会遍地开花吗?

这不是今年内特斯拉第一次出事了。

6月16日,江西南昌一辆特斯拉Model 3轿车,在行驶过程中突然自动提速,一口气冲上了每小时127公里,车主尝试刹车,但终究徒劳,最终失控的车子撞上土堆翻车起火。

8月9日,上海一辆特斯拉Model 3突然发疯,冲进一座加油站,一路撞了不少防撞杆,刮了站内三辆车,撞伤一名工作人员和一名车主,所幸没有造成更严重的漏油事故。

8月12日,温州的又一辆特斯拉Model 3,也是行驶过程中失控加速,强冲停车场收费站,直接把车主搞成重伤,被送进抢救室。

最严重的是9月5日,四川南充一辆特斯拉失控,撞上多辆 汽车 和路人,造成2人亡,6人受伤。特斯拉专门回应过这一起事故,说对车辆数据的分析显示一切正常,没有发生故障,不过虽然车子没问题,他们也会好好配合警方调查

简直高风亮节。

据统计,2019年一年特斯拉就发生了50起致命***,其中14起涉及Autopilot,也就是特斯拉以***驾驶系统为名,超前搭载的自动驾驶功能。

保持业界领先没问题,拿一个半成品出来大规模实用,未免步子就迈得太大了点。

当然,步子迈得大的不只特斯拉,快速井喷的新能源 汽车 行业,理念跑过技术是常事,尤其那块象征未来感的大屏中控台,几乎是每一家车企都绕不开的坑。

比如号称“中国特斯拉”的蔚来,首批ES8交付的时候就曝出过行驶过程中中控台机,导致全车系统无法启动。好好开着车,大屏幕突然一黑,看不到仪表盘,调节不了车前灯,要是路况不好,多半祸福难料。

问题不难解决,保留部分和驾驶安全息息相关的实体按键和指示灯就行,可惜新能源们在一条追求“未来感”的大路上狂奔,巴不得把所有控制、显示都极简化到一块大屏幕上,安全性和调性之间,总得有个选择。

这就是新能源车企,无论特斯拉,还是国内的造车新势力,都共同面对的的困境,忙着把十年后的世界搬到眼前来,但眼前并没有足够好的技术去支持

现在, 汽车 界似乎流行着一种共识:不智能无 汽车 。

不想尽千万种办法跟智能化沾点边,都不好意思说自己在造车。

你有自动驾驶,我就要加上AI智能,你有大屏中控台,我就放一个更大的中控台。越来越多的车连上网,接上云,往车上加上一些冠以“自动XX”的技术。

为什么对于智能如此执着?

在与传统车企的对阵中,新能源 汽车 的筹码并不多。除了环保这一点之外,在很多方面似乎没有明显的优势。

比方说电池技术的限制,导致新能源 汽车 在续航里程上、使用方便程度上,比传统燃油车相去甚远。除此之外,在整个电动车成本中占将近三分之一的价格,堪称是新能源 汽车 身上最贵的部分。

电动 汽车 用的比较多的就是磷酸铁锂电池和三元锂电池,它们的平均价格分别是0.5元/Wh和1.08元/Wh,所以每度就是500元和1080元。

因此在如今续航基本上都超过400公里的车上,电池成本就分别是2到3万和5万元左右了,再加上大概1万左右的人工费,那么三元锂电池的车更换一次电池就要6万多了,续航再高点的话可能还要更多。

一般来说,一块电池的使用年限在3-5年时间。也就是说,在使用几年后,一辆新能源 汽车 的总价,可能比燃油车还要高出不少。

比起传统燃油车,新能源 汽车 在续航、动力、便捷度上没有优势,甚至在价格上也不吸引人。这使得其必须找到其他的闪光点才能让人有动力去购买。

于是,各种令人眼花缭乱的智能化技术层出不穷。

实际上,新能源 汽车 相比传统燃油车,本身就更适合成为智能化的载体。

一台车实现自动驾驶的过程大概可以简化为:传感器接收信号——电脑处理——处理后的指令传给执行器执行。电动车没有节气门、喷油嘴、高压包、变速箱这堆东西,电脑处理后的数据可以直接传给电机、电池、电控三大部件,它们也能在短时间内做出响应并且实现精准控制。

但在燃油车上,电脑处理后的数据要通过车辆复杂的CAN总线传给发动机ECU、变速箱(TCU),这两个CU再把电信号传到具体的执行零件(像电子节气门),执行零件读懂电信号之后再转化为具体的动作。这其中的技术复杂程度,需要极长时间的积累。

而电动车作为一个几乎全新的物种,在技术上则没有传统燃油车的限制。

因此,电动车们拼拼活地要堆砌智能化亮点,一方面是因为只能寻找到这个亮点,另一方面也是因为智能化更容易实现。

不过,现在的新能源 汽车 在越来越智能化的同时,也越来越依赖于车辆之外的技术支持。无论是***、远程操控、解锁、自动驾驶等等,离开系统和网络的控制也就无从实现,而一旦系统和网络出现问题,就会引发诸如现在的大混乱。

智能 汽车 存在的种种隐患,也让将希望押在智能 汽车 身上的新能源车企们走得跌跌撞撞。

在前几天的2020年世界新能源 汽车 大会上,中国标准化研究院党委书记、副院长王宗龄透露,截至2020年6月底新能源 汽车 召回141次,召回数量84.05万辆。

想要走得更远,终究还得走得稳才行。

新能源 汽车 的问题越来越多,似乎和新能源 汽车 的普及相关。

随着 汽车 越来越智能化,以及在全世界的道路上行驶着的新能源车越来越多,相关的问题也在更加频繁的出现。

早在2018年,1818黄金眼就曾报道过一起新能源 汽车 的***技术故障引发的驾驶问题。

当时,这名车主购买的一辆混合动力的白色吉利博瑞轿车,有一次在道路上正常行驶时,到了红绿灯路口的时候,本应该笔直直行,且前面没有障碍物,旁边也没有行人。

但车子却在路口突然紧急制动,幸亏后面没有车辆跟随,否则很容易发生追尾现象。

后来,4s店的负责人实地去行驶的路段看过,发现这段路是正在维修的,地上是有一块铁板的,解释称,这个铁板可能会误触发车子前面的传感器。

技术与应用之间,还存在多少距离?这个距离又需要多少教训去填补?

同年在美国亚利桑那州坦佩,一辆自动驾驶 汽车 在美国亚利桑那州坦佩发生交通事故并造成一名女性行人亡。原因则是自动驾驶技术未能识别出路上的行人。

人工智能无论如何先进,最终都是机器做出决策。而机器的处理方式,类似于法律系统中的“判例法”——以前出过类似的案件,那么,下一个相似的案件,也以以前判决过的为标准。

一旦意外发生,人工智能甚至不会问自己该怎么办,而是可能像什么都没发生一样继续运行,或者过度反应

尽管这些可能在人类驾驶员身上同样存在,但自动驾驶、***驾驶在将安全作为卖点宣传的时候,在多大程度上真的做到了安全?

现在,行业仍然在野蛮发展之中,尽管诸如补贴退坡、门槛调整一类的利空给行业形成了压力,但是现在对于 汽车 的智能化也没有非常明晰和严格的监管,也许,打着智能旗号的各种新能源、旧能源 汽车 们,还会疯狂飙车一阵子。

但在智能化浪潮下,车辆“是否可能判断车辆在事故中所占有的失误比重”、“谁应当承担责任”这些问题,都没有明确的答案。

就像在一些车辆的宣传中,极度宣传自己的自动驾驶技术,但事实上,智能 汽车 搭载半自动先进驾驶***系统,它属于“共同控制”的“人类—机械”合作模式。

汽车 智能化最主要的目标就是借由安全性的提升,来降低***事故发生频率。

现在来看,已经实现的技术和美好的设想之间,还有一道宽阔的鸿沟。

但在利益和自我调整之间,车企们又会怎样抉择?

特斯拉五大缺点 特斯拉电动汽车的五个缺陷

3月11日,尽管已经知道工信部约谈特斯拉的消息,但涉及自动驾驶芯片“减配门”的特斯拉车主刘先生仍然不知道接下来该怎么办。从发现减配问题至今,他曾经向媒体披露,也曾向有关消费者机构进行投诉,但最终还是没有弄清楚特斯拉应该对这件事情承担什么责任。

和刘先生一样,上海的张先生起初认为,工信部约谈特斯拉后已经认定厂家确实存在减配问题,就可以认定是侵犯消费者权益,但上网查询以后发现,工信部约谈只是对企业生产端的警告,并不能认定已经销售的减配车型侵犯消费者权益。

“我们找过律师,从法律角度现在需要取证,而且需要证明减配已经危及到了产品使用的安全与功能完整,但从消费者的角度,这些取证要求很专业,我们做不到”,3月12日,另一位不愿具名的特斯拉车主向汽车预言家透露,他向很汽车技术专业人士求助,得到的答案也是五花八门。有的说HW3.0算法高于HW2.5,确实存在自动驾驶反应迟缓的风险;有的说HW2.5的成本要高于HW3.0,车主不亏;还有的说,汽车电子技术这一块在具体定责方面还没有先例,这场“官司”不好打……

和他们一样,自从3月3日特斯拉官方回应自动驾驶硬件从HW3.0降低为HW2.5的原因是疫情导致的供应链问题后,涉及这一问题的车主已经不再单纯认定一个硬件产品的问题,而是担心硬件减配后会不会出现安全风险,还有没有更多他们不知情的问题。

“我们想要一个更真诚的回应,而不是把责任推到我们身上”,刘先生指出,最让他不可思议的是特斯拉老板马斯克公开的回应,暗指车主莫名其妙、无事生非。他想不通,是什么让特斯拉老板马斯克这么肆无忌惮的不认错,反倒把“屎盆子”扣到花真金白银的消费者身上。

在搜集证据的过程中,包括刘先生在内很多特斯拉车主提出一个新的问题,如果特斯拉减配***发生在美国,美国消费者会怎么办?曾经将丰田刹车门、大众尾气门捅的世人皆知的美国相关机构,对特斯拉减配***会是什么态度?抛开产品本身不谈,特斯拉此次违背诚信经营行为在美国会受到什么处罚?他们希望从美国的法律角度来反推此次特斯拉减配***。

1

减配不能停留在约谈

3月10日,工信部对外宣布,工信部装备一司针对特斯拉Model?3车型部分车辆违规装配HW2.5组件问题约谈了特斯拉(上海)有限公司。责令特斯拉按照《道路机动车辆生产企业及产品准入管理办法》有关规定立即整改。

得到这一消息后,涉及减配***的特斯拉车主刘先生马上咨询了相关法律人士,但得到的回复是约谈不涉及消费终端,只能认定特斯拉在生产端存在不一致行为,不能作为消费侵权的证据,这让刚刚有点希望的他再次迷茫起来。

资料显示,工信部下属机关司局中,装备一司的职责是承担通用机械、汽车、轨道交通机械制造业等行业管理工作,提出行业发展规划、政策建议并组织实施,推动相关新兴产业和智能制造发展。特斯拉被工信部约谈,正是依据《道路机动车辆生产企业及产品准入管理办法》(以下简称《办法》)有关规定。据悉,该《办法》于2018年11月27日由工信部正式公布,其中明确规定了准入企业在生产条件和产品一致性方面的具体相关要求。也就是说,消费者反映的特斯拉硬件减配问题,被工信部认定是产品生产制造不一致。

对于这一认定,3月12日,中国质量认定中心交通与车辆首席技术专家、高级工程师谢鹏鸿告诉汽车预言家,外界可将特斯拉被约谈看作是对生产制造环节的警告和风险排查,并不能作为消费者认为的减配侵犯权益证据。严格意义上讲,是否存在质量问题与侵权行为应由消费者协会与质检总局负责。

那么特斯拉减配***到底算生产不一致还是欺骗消费者的行为?

梳理发现,消费者反映的特斯拉Model?3出现“减配”现象,是提车前特斯拉承诺提供HW3.0芯片,但实际上交付时却发现是HW2.5芯片,这种情况随后也出现在进口版Model?3上。整个***中涉及到的HW3.0(自动驾驶硬件3.0)与HW2.5(?自动驾驶硬件2.5)芯片的区别,是判定此次***的核心。

资料显示,HW3.0为特斯拉自主研发,HW2.5则是由英伟达提供。按照特斯拉官方说法,HW3.0芯片容纳多达60亿个晶体管,每秒可处理2300帧图像。而HW2.5芯片的处理速度为美标110帧图像,单从数据处理速度看,HW3.0芯片的处理速度是HW2.5芯片的23倍。

特斯拉装载的FSD系统芯片

早在2019年4月特斯拉Autonomy?Day直播日上,特斯拉CEO埃隆·马斯克曾公开宣布,2019年4月12日以后生产的Model?3都已装配自动驾驶HW?3.0硬件,并且特斯拉将会为购买FSD(Full?Self-Driving,中文为“全自动驾驶”)的老车型提供硬件升级服务。但是目前消费者反映的实际情况看,如果进口车型没有安装FSD,车主需要自己花费5.6万元购买FSD后才能免费升级HW3.0。至于未选装FSD的进口车,目前特斯拉仍未给出解决方案。

3月5日,马斯克就特斯拉“减配”一事发出回应,形容消费者“莫名其妙”

一家汽车企业电子架构相关负责人向汽车预言家介绍,汽车芯片的处理速度代表着汽车在行驶中的反应效率,尤其是在***自动驾驶技术领域,处理效率决定着驾乘者安全。换句话说,HW2.5数据处理速度低于HW3.0,意味着消费者在使用过程中降低了产品安全使用效果。

***访中,包括刘先生在内的几位车主表示,他们都是冲着特斯拉的自动驾驶宣传才购买的产品,但特斯拉擅自降低芯片硬件,已经和他们购买车辆的初衷形成强烈反差。不过,在很多法律专业人士看来,特斯拉减配***如何认定还需要更多证据,尤其是产品减配是否真正构成严重后果。如果消费者在这一方面没有足够证据,很难认定责任。

汽车预言家对特斯拉34起事故类型统计中发现,涉及自动驾驶技术比例达到44.12%

汽车预言家梳理发现,从2013年10月至2020年1月期间公开报道的34起涉及特斯拉事故中,因使用特斯拉自动驾驶系统导致的事故为15起,占总事故比为44.12%。但由于很多没有找到与车辆足够的证据,或者特斯拉通过自我调查以及与家属和解等行为,最终真正归咎到企业身上的责任并不多。

另外很多车主反映,涉嫌减配的车型多为2019年5月后生产,也就是在马斯克公开承诺免费装配HW3.0之后。因此部分消费者认为,即使没有产生严重后果,特斯拉的行为也已经构成涉嫌虚***宣传的行为,不能简单认定是生产不一致问题。

2

美国如何处理诚信经营问题?

在国内寻找法律依据的同时,包括刘先生在内的很多特斯拉车主也尝试联系美国相关法律人士,他们希望了解,特斯拉在中国出现的“减配门”,在美国会如何处理?

3月14日,汽车预言家也与多位美国汽车产业人士进行沟通,他们认为,虽然特斯拉减配***还没有处理意见,但消费者提出的诚信经营问题是美国相关部门管理最严格、处罚最严重的领域。

按照美国汽车生产管理规定,汽车厂家要对其进入市场的产品自行负责,即美国对汽车产品市场准入实施自我认证的管理模式。美国***只是对进入市场的汽车产品实施严格的后继监督和抽查工作,对不符合美国汽车技术法规或者存在安全、环保缺陷的车辆实施严格的产品召回制度。也就是说,美国不会像中国工信部对生产端监督,但是会重点监督终端销售市场。

***访中获悉,在产品具体责任认定方面,美国和中国基本一致,不同问题由不同机构负责。汽车安全管理主要由美国运输部国家公路交通安全管理局(NHTSA)负责,汽车环保主要由美国环境保护署(EPA)负责。当然,在汽车产品市场准入管理上,除了联邦***一级管理外,美国各州***也有相应的管理责任。

针对特斯拉“减配门”一事,尽管目前尚未有美国车主出来发声。不过对于虚***宣传,美国实行的处罚力度很大,其中大众汽车“排放门”高达43亿美元的赔偿案就是距今最近的案例。

时任大众汽车(Volkswagen)首席执行官文德恩(Martin?Winterkorn),因排放门***被迫辞职

2017年,大众集团与美国司法部达成和解协议,最终支付高达43亿美元的罚款,其中28亿美元用于支付在美国销售的59万辆涉及排放的刑事处罚,另外15亿美元用于支付美国环保局对其在美国进口和销售有问题车辆的处罚。美国环保局副局长McCabe曾在当时表示,美国民众希望企业能够诚信经营,大众不仅违反了清洁空气法,还辜负了消费者的信任,他希望无论公司大小,但凡涉及违反法律行为,都将受到严厉惩罚。据了解,2015年美国对大众“排放门”的巨额罚款,直接影响大众随后几年的财务表现。

除了汽车之外,美国证券交易委员会(SEC)也曾对金融公司虚***宣传进行过多次严厉处罚。一个典型案例是2016年8月,SEC对13家涉嫌散布虚***信息的投资公司进行罚款。其中一家公司承认不法行为并同意支付3500万美元罚款,该公司随后也申请破产。另外一个案例是2018年10月,美国证券交易委员会(SEC)获得***紧急命令,停止Blockvest的ICO***,美国南加州地方***命令停止了该公司及其创始人Reginald?Buddy?Ringgold正在进行的ICO预售行为,并冻结了被告的资产。根据SEC指控,Blockvest和Ringgold谎称他们的加密基金是“受到许可和监管的”,同时歪曲了Blockvest与会计师事务所的联系。根据当月法庭听证会信息透露,美国证券交易委员会将要求颁布禁令,返还不义之财,外加利息和罚金,并禁止Ringgold今后参与发行任何证券。可以说,对于涉嫌虚***信息,只要在美国监管部门职责范围内,均会受到不同程度的惩罚,直至破产。

3月14日下午,中国消费者协会律师团团长邱宝昌在接受汽车预言家***访时表示,由于中美两国法律隶属不同体系,中国属于大陆法系,是成文法;美国属于英美法系,是判例法。面对强有力的被告方,美国通常以集体的形式进行诉讼,也就是集体诉讼制度。

所谓集体诉讼制度,指的是集体代表代表全体成员向******,集体代表之外的其他集体成员不参与诉讼程序,集体诉讼判决约束所有集体成员。集体诉讼的好处是能够遏制大公司的违法行为,起到震慑作用,从而规范市场运行。因为一般个人对被告的违法行为干预能力较弱,因此集体诉讼制度起到了遏制社会不法行为的效果。以美国集体诉讼为例,2016年7月,美国一家名为“安然公司”的投资者集体诉讼赔偿追讨案件,曾创下72亿美元的最高赔偿金额纪录。

3

加强对资产优势企业的消费者侵权监管力度

针对美国法律对消费***的规定,邱宝昌介绍,美国集体诉讼中,赔偿金额往往是天价级别,这与美国惩罚性赔偿有关。不同于补偿性赔偿,惩罚性赔偿目的是遏制和惩罚被告的不法行为,具有报复性的作用。这不仅是对原告人的补偿,更是对故意加害人惩罚以震慑其他潜在的不法主体,这种惩罚性赔偿主要在美国***用。

邱宝昌透露,美国之所以***用惩罚性赔偿制度,主要是对比单纯个人补偿损失来看。美国法律认为,对于财力雄厚的企业公司来说,他们完全不在乎个人违法的补偿损失,甚至一些具有逐利本性的企业,会将违法赔偿提前做进成本预算中。如果仅仅***用补偿性赔偿,这丝毫不影响违法企业的利润。因此,***用惩罚性赔偿直接剥夺企业利润,起到对其他企业的警示作用,来促使具有财产优势的企业遵守法律。

相关法律人士指出,随着中国经济发展体量增大,中国也应在这方面加强法律监管的处罚力度,对资产优势较强的企业产生法律威慑力。他认为,在中国车主反映特斯拉减配***后,特斯拉总裁马斯克曾公开表示“中国车主莫名其妙”的言论,已经构成了对中国消费者权益“轻视”的嫌疑。有关保障消费者权益的法律也应加大惩罚性处罚力度,让企业和商人不得不重视中国市场信誉,确保中国在全球化加速过程中保持公平、公正的良好营商环境。

对于特斯拉在中国存在的“减配”现象以及虚***宣传违法判定问题,邱宝昌对汽车预言家表示,这需要从法律个案的具体角度认定。他解释称,特斯拉“减配”以及虚***宣传只是欺诈行为存在的必要条件,而非充要条件。换言之,并不能因为特斯拉存在“减配”和虚***宣传就一定会被认定为欺诈行为,这需要一系列的法律程序举证、认定才能最后定性。如果坐实存在欺诈行为,根据《中华人民共和国消费者权益保***》第五十五条规定:“经营者提供商品或者服务有欺诈行为的,应当按照消费者要求增加赔偿其受到的损失,增加赔偿的金额为消费者购买商品的价款或者接受服务的费用的三倍。”

另外,相关质量监管领域专家在接受汽车预言家***访时指出,特斯拉对于消费者的“减配”问题,属于商品流通后的合同违约与产品质量问题,严格意义上讲应归消费者协会和质检总局负责。工信部出面约谈,等于变相帮特斯拉“解了围”。如果消费者问题得不到妥善解决,他相信后续还会有质检总局等相关部门介入,甚至不排除责令召回。

3月15日截稿前,包括刘先生、张先生在内涉及减配问题的车主正在收集更多消费者资料寻求法律途径,他们希望企业给一个合理的赔偿与解决办法。

附:特斯拉34起事故案例

1

2020年1月20日,一辆特斯拉行经新北市永乐街一处巷口时,与一辆银色轿车发生碰撞,造成一名12岁女童被波及当场惨。事故现场限速为50公里,特斯拉车速约80公里。银色轿车未礼让特斯拉,过失致人亡。

2

2019年12月29日,在加州加迪纳,特斯拉Model?S在行驶过程中闯了红灯,撞上一辆本田思域,造成思域上的两名乘客当场亡;特斯拉汽车上的两名乘客受伤,但没有生命危险。

3

2019年12月29日,一辆特斯拉Model?3撞上了停在印第安纳州高速公路左侧车道上的一辆消防车,造成特斯拉车内一名妇女亡,她的丈夫受伤。

4

2019年12月,特斯拉Model?3轿车在康涅狄格州诺沃克附近的一条主要公路上撞上了一辆停在路边、打着双闪的警车。所幸此次事故没有造成人员伤亡。特斯拉车主称,他当时开启了自动驾驶Autopilot功能,由于当时他正看着后排的宠物狗,没有看前面所以没能及时躲避开。

5

2019年4月21日,上海徐汇区某小区地下***内,一辆黑色特斯拉轿车突然冒出白烟,不到5秒钟,迅速起火燃烧。当时没充电。

6

2019年3月26日,在广州某小区地下停车场一辆特斯拉Model?S发生燃烧事故,这辆车起火时并没有进行充电。

7

2019年2月,一辆2016款特斯拉Model?S在美国佛罗里达州撞树并起火,该车在被警方拖到停车场后,至少自燃三次。

8

2019年2月9日,一辆Model?3在深圳特斯拉试驾活动中发生撞击事故,前脸中央位置凹进去了一大块,大灯也已经破损,整个前脸严重变形。

9

2019年1月6日,在美国的天堂路(Paradise?Rd)上,一辆处于自动驾驶模式的Tesla?Model?S在行驶中撞倒了路边的一个机器人致其报废。

10

2018年12月18日下午,加利福尼亚州圣克拉拉县消防局称,一辆银色的特斯拉Model?S在位于洛斯加托斯的一家汽车修理店中起火,所幸无人受伤。

11

2018年6月,美国洛杉矶一辆Model?S在行驶中,车辆开始冒烟并随后发生自燃,所幸没有造成人员伤亡。

12

2018年5月11日,一辆特斯拉Model?S轿车在美国犹他州South?Jordan的高速公路上与一辆卡车相撞。警方表示特斯拉驾驶员声称当时正在使用Autopilot功能,并且自己正在看自己手中的智能手机。

13

2018年5月10日,一位48岁的德国人驾驶特斯拉汽车在瑞士南部提契诺州的高速公路上。首先是汽车撞上了中央隔离带,造成车辆翻车并起火,司机未能幸免于难。

14

2018年5月8日,在佛罗里达州,一辆2014年生产的特斯拉Model?S在发生碰撞后起火,前排的两名18岁的青年男性当场丧生,后座另外一名18岁男性青年被甩出车外,已送到医院救治,目前该事故已造成21伤,且均为高中生。

15

2018年3月23日,38岁的苹果软件工程师黄伟伦(Walter?Huang),驾驶特斯拉Model?X在加利福尼亚州山景城附近的高速公路上发生严重***,因抢救无效亡。据从被撞车辆上下载的性能数据来看,黄伟伦使用的是交通感知巡航控制系统和自动转向车道保持***系统,这是特斯拉Autopilot系统的一部分,具有ADAS功能。

16

2018年3月15日,在荷兰特斯拉Model?S撞到一辆自行车、一辆小轮摩托车和一辆汽车,有人伤亡具体情况尚不清楚。警察称?“技术问题”造成了此次事故,随后当地媒体迅速将“技术”与Autopilot系统联系起来。当地警方回应称,“恐怕情况比较糟糕”,并表示有可能是有意为之。但是后来又有媒体报道称,事实情况并非如此,警方正在调查“技术问题”。

17

2018年1月,在美国,特斯拉ModelS与一辆停放在路边的消防车发生碰撞引致交通事故,场面可谓触目惊心,所幸的是,事发时候消防车上没有人,特斯拉司机也没有在事故中受伤。据特斯拉司机表示,当时车速为65英里/小时,ModelS自动开启了AutoPilot***驾驶模式。经调查,ModelS撞击消防车之前,司机曾脱离方向盘长达13分钟。

18

2017年4月,美国纽约州一名车主驾驶Model?S撞到路边一块巨石后开始自燃,无人员伤亡。

19

2016年9月28日,在德国一辆特斯拉汽车与旅游大巴发生***,无人亡。特斯拉公司认为事故不可避免,与Autopilot无关。德国交通部部长要求特斯拉停止使用“Autopilot”这个词,为此特斯拉聘请了第三方调查公司对于车主进行调查,结果98%的受访车主都明白他们在启动Autopilot之后还要继续保持对汽车的控制。

20

2016年8月15日,在法国巴斯克地区的比亚里茨(Biarritz)小镇,一辆特斯拉Model?S试驾车在试驾期间。当时车上有三名乘客,车辆起火后,三人都及时下车,没人受伤。

21

2016年8月7日,在德克萨斯州,特斯拉Model?S在处于Autopilot模式时偏离公路并撞上路边的护栏,车主Mark?Molthan表示“Autopilot给了你安全的错觉。

22

2016年8月2日,一位中国车主驾驶他的Model?S在北京北五环开启自动驾驶,当时前方内侧有一辆黑色桑塔纳停靠,但Model?S并没有完全识别这辆桑塔纳,直接撞向黑色桑塔纳右侧。

23

2016年7月9日,一辆特斯拉Model?X在美国蒙大纳的2号高速公路上行驶时突然向右侧转向,撞向隔离护栏。乘客和驾驶员均未受伤,车主称他当时启用了自动驾驶系统。

24

2016年7月1日,一位车主在驾驶Model?X行驶在高速公路上时发生侧翻,撞到路边的护栏,当时车辆也开启了自动驾驶模式。

25

2016年5月底,在瑞士,一辆在Autopilot模式下行驶的Model?S,未能及时检测到前方一辆静止货车。发生碰撞。这次撞到的静止货车不是大面积白色,而是蓝色和黑色,并且有复杂图案,也就是说特斯拉似乎可以撞上任意颜色和形状的静止障碍物。

26

2016年5月7日,在美国佛罗里达州,Model?S型电动轿车车主、一辆转弯的白色厢式半挂车发生碰撞,导致一名40岁美国男子身亡。

27

2016年1月20日,在京港澳高速河北邯郸段,一辆白色的特斯拉在左侧第一车道高速撞上了一辆正在前方实施作业的道路清障车,发生严重追尾,特斯拉车头部位变形严重。当时特斯拉的驾驶员送院后因为伤势过重而去世,成为已知报道中,特斯拉事故的首位致***。

28

2016年1月1日,一辆Model?S在挪威的一个超级充电站充电时起火燃烧,车辆完全烧毁,但没有造成人员伤亡。有分析称,挪威的极端寒冷天气可能是引发事故的原因。

29

2015年,在挪威一座充电站,一辆充电中的特斯拉Model?S突然自燃,当事车辆和现场充电设施基本被烧毁。

30

2014年7月4日,一辆Model?S在洛杉矶起火。一个小偷从经销商那里偷走这辆Model?S,高速逃逸过程中撞上路边的灯柱,结果整辆车分为两半并燃烧。

31

2014年2月初,在加拿大多伦多的一个私人***中,一辆买来刚刚四个月的Model?S发生了自燃并起火,发生事故时该车并未处于充电中。

32

2013年11月15日,美国加州奥兰治县居民***,一辆Model?S充电器过热起火。

33

2013年11月7日,一辆Model?S在美国田纳西州的一条高速公路上撞击道路碎片后起火,田纳西州高速公路巡警发言人表示,那辆Model?S的底盘撞上了一个拖杆,导致起火。

34

2013年10月18日,一辆Model?S在墨西哥高速行驶碰撞后起火。当时汽车正在高速行驶,撞到了一堵混凝土墙,紧接着又撞上了一棵大树,但驾驶员从车里走了出来,还询问特斯拉是否能迅速交付下一辆Model?S汽车。

本文来源于汽车之家车家号作者,不代表汽车之家的观点立场。

特斯拉车性能怎么样?

1、电池(Battery)虽然在现今市场上还没有任何一个产品可以和特斯拉的电池所比拟,但特斯拉的电池结构组合并非最优。

2、 电机(Motor)特斯拉所使用的电机是(AC Motor)交流电机(也称为感应电机)。交流电机的特点为重量轻,价格低和易维持的特点。但交流电机并非最佳的电机选择,交流无刷电机(DC Brushless Motor)相较于直流电机效率更高而且无需转换器

3、天气适应(Climate)作为一辆在硅谷出产的电动车,特斯拉也具有一定硅谷的特性,这辆车在西海岸的表现性和适应性都得到了极高的赞誉,而在其他地区如东海岸和中部则没有这么高的评价。北美特有的气候使得中部和东部的冬天及其寒冷,动辄可达到零下三十摄氏度左右,而特斯拉独特的门把手设计则为这些地区的用户平添了不少烦恼。

4、缺乏机械按键特斯拉极大的精简了传统机械按键,在 Model S 上,特斯拉消除了天窗以及窗户等机械按键,甚至连车内等光,雾灯大灯等设计都由中控台来掌握。

5、自动驾驶:特斯拉的自动驾驶离完美还相差甚远,虽然 Elon Musk 一直在强调几起事故并不能说明特斯拉自动驾驶的缺陷,但不可否认的是特斯拉的自动驾驶还远不成熟,仅仅今年一年特斯拉的自动驾驶就造成了至少三起致命的交通事故。

又一名车主身亡,别被“自动”驾驶忽悠了

挺好,从以下几方面评估

1、起步:

起步是很快速,但是这种电动机类型的直线加速度,身体不容易适应,不如燃油发动机那种曲线加速度的让人感觉更舒服。

2、质量:

特斯拉电动汽车在质量、安全和性能方面均达到汽车行业最高标准,并提供最尖端技术的空中升级等服务方式和完备的充电解决方案。

3、迅速:

特斯拉汽车是美国生产的。零排放,零妥协。Tesla (特斯拉)的先进电力传动系统具有出色的性能。与包含数百个细小零部件的汽油内燃引擎不同,特斯拉电动机只有一个运动部件:转子。因此Model S的加速过程迅速,安静而平稳。

踩下加速踏板,只需3.0秒,便可以从零加速到100公里/小时。没有任何犹豫,不燃烧一滴汽油。Model S是汽车工程的进化。特斯拉汽车公司(Tesla Motors)成立于2003年,总部设在了美国加州的硅谷地带。

特斯拉自动驾驶又惹祸,首次致行人亡

作者 | 周继凤

编辑 | 黎明

悲剧再次发生了。

8月14日晚,名为“美一好”的公众号发布讣告称,8月12日下午2时,年仅31岁的创业者、上善若水投资管理公司创始人林文钦(昵称“萌剑客”),驾驶蔚来ES8 汽车 启用自动驾驶功能(NOP领航状态)后,在沈海高速涵江段发生交通事故,不幸逝世。

据《科创板日报》报道,林文钦的好友郑先生称:“蔚来工作人员告诉我们,事发时,这辆蔚来正处于NOP状态。”而蔚来内部人士回应称:“NOP领航***不是自动驾驶,后续有调查结果会向外界同步信息。”

***发生后,网络上掀起了有关自动驾驶技术的讨论。不少网友指出,车企为了商业利益, 在宣传时将“***”驾驶与“自动”驾驶的概念进行混淆 ,让用户过于信任和依赖这套系统,导致驾驶员很容易在开车时掉以轻心从而酿成惨剧。在蔚来这起事故之前,已经发生不少类似的安全事故。

几乎同一时间,美国国家公路交通安全管理局(NHTSA)宣布,由于发生多起特斯拉 汽车 与停放的紧急车辆相撞的事故,该局已经开始对特斯拉的Autopilot自动***驾驶系统展开正式调查。

对于一名 汽车 用户而言,“***”驾驶与“自动”驾驶的概念功能,本应该是最基本的认知常识。可悲的是,自动驾驶行业里的玩家长期以来都在夸大宣传,忽悠用户。

自动驾驶行业发展了这么多年,这一次,安全问题以及“过度宣传”问题,终于被摆到台面上来了——以生命为代价。

不止是这次悲剧的主人公, 在全行业的鼓吹下,大量的消费者正在接受甚至依赖自动***驾驶功能

卢米是一名特斯拉车主,他平日里跑高速都会选择开启自动***驾驶,在他看来,自动***驾驶的体验很好。

车主张鹭也发现了自动***驾驶的好处。“平日里开车,我只用手握方向盘,刹车和油门就不用踩了,系统会自动跟车,自动转弯,非常方便。”甚至有几次,张鹭感觉自动驾驶救了他的命。他回忆,特斯拉的自动驾驶有一些主动预警措施,比如在车道偏离、接近追尾时,关键时刻会给他提醒。

但是,已经逐渐习惯并且依赖这一套系统的消费者们,其实并不清楚自己开启的是怎样一套系统,以及这套系统是否存在风险。

很多时候,他们依据名字来判断。

目前,特斯拉针对自动驾驶推出了不同的软件包,其中,基础标配的功能被称作基础***驾驶功能(即AP),更高阶的软件包FSD,被称为完全自动驾驶。 由于特斯拉直接把更高阶的自动驾驶软件包取名为完全自动驾驶,不少车主直接把特斯拉FSD等同于自动驾驶技术

一名特斯拉车主坦言:“我其实分不清具体什么是自动驾驶,什么是自动***驾驶。但是有朋友推荐说,可以开启一下AP,效果挺好,我就跟着一起用了起来。”

人们也不知道,在所谓的自动***驾驶模式下,究竟什么可做什么不可做。

经朋友推荐开启自动***驾驶功能的特斯拉车主王盛,如今只要是跑通勤上高速或者上环线都会开启自动驾驶。他有时候会分心处理一些公务,有时候还会接接电话。

不止是国内,美国安全保险研究所在2020年的一项调查显示,有48%的司机错误认为,只要开启了特斯拉的“Autopilot”功能,不掌控方向盘也是安全的。

一些人太信任 自动***驾驶系统,以为开车时完全可以解放双手双脚

不少车主在网络上分享了抖机灵的做法,比如把矿泉水瓶、橘子绑在方向盘上迷惑系统,让系统误认为是驾驶员的手放在方向盘上。8月份,甚至有车主上传了一段自己使用***驾驶系统躺着开理想ONE的***,一度引发全网热议。

在现代 社会 ,信任能更快地达成交易,但对于自动***驾驶来说, 过度信任,有时候却会送命 。早在蔚来这起致命事故发生之前,因为驾驶员过于信任自动***驾驶系统,已经酿成了多起悲剧。

2016年,美国佛州的一辆特斯拉Model S在Autopilot状态下与正在转弯的白色半挂卡车发生碰撞,特斯拉驾驶员不幸身亡;2019年,一辆特斯拉Model 3在Autopilot状态下以110公里/小时的时速径直撞向了一辆正在缓慢横穿马路的白色拖挂卡车……

美国国家公路交通安全管理局(NHTSA)在调查后发现,自2018年1月以来,特斯拉自动驾驶系统已导致11起事故,致17人受伤,1人亡。且这11起事故中有4起发生在今年。

自动驾驶的诞生源自这样一个逻辑,人类驾驶员会犯很多错误,而自动驾驶 汽车 犯错的概率相对于人类要小很多,会让驾驶变得更加安全。 为什么原本是为了让人类驾驶更安全的系统,如今成为了马路杀手?

这其实不仅仅是一个技术问题。

我们从自动驾驶的分级说起。

当下车企所宣传的“无人驾驶”、“自动驾驶”,其实都是L2级别的自动***驾驶。

根据SAE(美国 汽车 工程师学会)的分类,自动驾驶可以分为L0-L5级六个阶段。其中L0代表无自动***功能;L1-L2为驾驶***系统,驾驶员是车辆操作的主体;L3-L4为有条件的自动驾驶系统;只有到了L5才是真正的无人驾驶。

这其中最重要的分界线是L2级别。

L2及以下级别是自动驾驶的初级水平,这个区间的自动驾驶技术不具备“全自动驾驶能力”,是始终需要人类监管的驾驶***系统——事故主要责任人始终是人类驾驶员。

按照常规,一名驾驶员理应知道自己购买的车归属于什么自动驾驶级别。如果是在L2级自动***驾驶系统中,作为完全责任主体的驾驶员,则更应该明确认识到L2级自动***驾驶系统的风险。

但很多车企都在不遗余力地模糊L2这一界限,夸大自己的自动驾驶技术。

很长一段时间,特斯拉将Autopilot(高级***驾驶系统),当成“自动驾驶”对外宣传,直到发生多次安全事故,才不得不改口。而即便现在,特斯拉最高阶的软件包FSD,仍被称为完全自动驾驶。

至于国内,蔚来副总裁沈斐曾在微博中表示,车主们使用其自动***驾驶功能时可以“放心地边吃东西边开车”(相关内容现已删除)。

车企很清楚,如果直接表明自己是L3、L4级别的自动驾驶,那么一旦发生事故,责任方就会归于自己。于是,他们在宣传时打一些擦边球。

比如,4月16日,威马正式亮相了第三款量产车型W6。在官方宣传中,威马反复强调W6是“20万级国内首款无人驾驶量产车型”、“国内首款L4级别无人驾驶量产车”。

但实际上,威马W6仅仅在停车这个场景上,实现了L4级别无人驾驶。但很多消费者误以为“威马的所有出行场景都实现了L4级别无人驾驶”,“威马的W6是唯一实现了L4级别无人驾驶的量产车。”

这些夸大宣传提高了企业的曝光度,但在巨大的信息不对称下,消费者很有可被误导,误以为企业已经推出全自动驾驶技术。

著名自动驾驶公司Waymo曾放弃将自动驾驶称为“self driving”,更名为“autonomous driving”。Waymo的逻辑是:“ 精确的语言很重要,可以挽救生命 。”

反过来,我们可以套用一下Waymo的逻辑——车企们正在用模糊的语言把越来越多的人推向悬崖。

8月16日晚间,理想 汽车 创始人李想在朋友圈发文称,L2 、L3一类的专业话术,用户容易混淆且听不懂,建议统一名称为L2=***驾驶;L3=高级***驾驶;L4=自动驾驶;L5=无人驾驶,一个多余的中文字也不要有。

“最大化的控制期望值,避免自动和***出现在同一个状态下,***驾驶就是人的责任,出现自动两个字就是车的责任。”他表示。

再说回来,即便是L2级别的***驾驶,也不是100%安全。在当下,L2级别的自动驾驶***系统主要配备毫米波雷达以及视觉识别(摄像头),从而感知环境。其中,毫米波雷达对于前方完全静止的物体,有一定几率无法识别。而视觉识别是按照深度学习的逻辑来运行的,也永远无法达到100%的准确率。

也就是说,面对复杂的路况,自动***驾驶的识别无法做到100%精准。

对于驾驶员来说,在使用自动***驾驶功能时,永远需要保持警惕以备不时之需。作为系统的提供方,车企有责任有义务将自动***驾驶的功能及使用范围明确,并确保教会用户正确的操作方法。

但就目前来看,在风险提醒上,各大车企做得相当敷衍。有媒体指出,蔚来NOP在去年10月更新上线,自动***驾驶功能推出或升级时,蔚来对车主的线上安全提醒都是非强制性的。

蔚来的这种行为就相当于,我把说明书摆在这儿,你愿不愿意看或者看不看得懂,都和我没关系。

很长一段时间,以上提到的这些潜在风险,都被自动驾驶行业的光环掩盖了。

近些年,自动驾驶行业蓬勃兴盛。

资本与行业玩家合力打造了一个看上去颇具颠覆性的出行故事,这个出行梦的核心就是自动驾驶技术。中国智能网联 汽车 创新中心预测,2020年至2025年,可以实现部分自动化或有条件自动化的智能网联 汽车 销量,占当年 汽车 总销量的比例将超过50%。

以特斯拉为代表的 汽车 制造商,加速了这一进程。

2015年,特斯拉第一次通过OTA的方式为Model S推送了Autopilot***驾驶系统。特斯拉车主们一觉醒来,发现自己的车突然获得了一些自动***驾驶功能,比如,在高速路上特斯拉可以自动保持车道、自动根据路况加减速等等。

靠着特斯拉的带动,越来越多安装着自动驾驶***系统的智能车上路。如今,一辆电动车如果没有搭载自动***驾驶,似乎不能够称之为智能车。

投资人开始意识到,卖车卖硬件或许不是最重要的,自动驾驶等软件服务才是最具想象力的环节。

而跨界造车也让自动驾驶上下游产业链火爆了起来。仅今年6月的第一周,就有3家自动驾驶公司相继宣布获得融资,总计融资超过32亿元。

整个市场变得大胆且激进。马斯克一度放话:“我们已经非常接近L5自动驾驶了。”为了搏出位、吸引投资人的目光,不少车企对外宣称已经实现L3、L4级别自动驾驶。

一位业内人士曾指出,已经量产的车企,很多完全没有自研能力,只能转头选择向博世、Mobileye等厂商***购成熟的自动驾驶方案。但这不影响车企们将之包装成自己的研发能力。

7月初的世界人工智能大会上,原华为智能驾驶产品线总裁兼首席架构师苏菁曾面对特斯拉的高事故率,痛斥其为“”。

一位用户在看完最近的报道后感叹:自动驾驶技术走向成熟的道路也是一段无数用户亲身试错的血泪史。

一位业内人士指出:“为了保证安全,技术层面以外,法律法规也需要适配自动驾驶的边界。”

但在操作层面,还有更多细微的问题需要解决。

国外有可参考的案例。2020年,美国高速公路安全保险协会IIHS发布了一系列ADAS功能的指导方针。其中,IIHS建议,自动化系统能够提升安全的关键就是确保司机需要始终参与车辆的操作。

当下,车企们防止司机分神的系统仅有两类。一是像特斯拉和一些主流车企***用的方向盘压力检测,如果系统检测到司机的双手离开方向盘达到一定时长后,便会分段执行警告、强制解除***驾驶状态、刹车等动作。另一种是安装面向驾驶员的摄像头来监控驾驶员的面部是否一直面向道路。

IIHS指出,这些都不是万无一失的方法。该机构建议,还应该加入检测方向盘是否被手动调整,调整了多少角度以及驾驶员注意力监控。这或许是一些更为实际的指导方法。

*题图及文中部分配图来源于Unspalsh。

文/田忠朝

最近特斯拉又吃官司了,因为自动驾驶致人亡被告上了美国加州圣何塞联邦***(特斯拉总部附近)。

起因是此前东京Tomei高速公路外侧发生了一起小事故,44岁日本男子Yoshiro Umeda下车查看碰撞情况,并与其他人一起站在一辆货车后面。

而肇事的Model X正处于自动驾驶状态,车主打了个小盹,它的前车发现前方事故后立刻变道离开,Model X 则加速撞上了人群,致使Yoshiro Umeda当场亡。

▲大概类似这种情况

这也是特斯拉自动驾驶***以来,首起致行人亡的事故,此前的亡人员基本都是车主本人。

从这起事故中不难看出,Model X车主要承担一定的责任,因为他没有尽到驾驶员的责任。

但肇事的Model X就无责了吗?

Yoshiro Umeda的家人认为,这起事故是特斯拉自动驾驶缺陷造成的,为什么自动驾驶系统没有识别前方障碍物(行人),反而加速撞了上去?

我想可能的解释就是特斯拉自动驾驶系统默认高速路上不会出现行人,在它的系统中障碍物只可能是车辆或雪糕筒,所以前车变道离开后,Model X认为前路畅通,反而加速。

事实上,特斯拉自动驾驶系统未能正确应对前方障碍物这种情况,已经不是第一次发生。早在2016年国内就发生过首起特斯拉自动驾驶致车主亡事故,当时一辆Model S在自动驾驶状态下追尾前方道路清扫车,造成河北籍车主亡。

同年美国加利福尼亚州也发生的一起Model S的致事故,让特斯拉自动驾驶功能的安全性被广泛关注。

最后特斯拉不得不将新车的“Autopilot”中文翻译从“自动驾驶”改为“自动***驾驶”,逃避“夸大宣传”的法律责任。

包括后来的Uber自动驾驶致案,都归罪于系统不能正确应对前方障碍物,包括无法识别或识别后未能作出正确应对措施。

但不管哪种,从这些事故中可以看出,目前的自动驾驶系统确实存在缺陷,在功能尚不能完全确认有效的机制下对公众开放使用,是一种不负责任的表现,特斯拉应该为此买单。

特斯拉自动驾驶事故率远低于人工驾驶?

当然,我们也听到了另一种声音,有人说,特斯拉在规定使用自动驾驶的情况下,事故率远低于人工驾驶,所以不能宽容“人工事故”而“苛求”自动驾驶。

的确,我们不能否认自动驾驶为道路安全做出的贡献,但也不可否认,很多人错用自动驾驶功能。

根据美国自动驾驶划分标准,目前特斯拉自动驾驶并没有达到L3级别,顶多可以“脱手驾驶(Hands Off)”,并不能做到“脱眼驾驶(Eyes Off)”,至于在驾驶中睡觉(Mind Off)这种行为,至少也是L4级别的自动驾驶才可能允许的。

现在那些驾驶特斯拉睡觉的车主,真不知道是心大还是无知?

为什么特斯拉自动驾驶系统允许车主睡觉?

在大部分特斯拉自动驾驶事故中,都有一个共同原因,“车主在打盹,车主在睡觉”,这也是特斯拉一直推脱责任的理由。

我们知道,很多车企在开发自动驾驶系统时都明确强调,当车辆监控到车主无***确回应时,会强制退出自动驾驶状态,允许车主开着自动驾驶睡觉这种事也只有特斯拉能干,放到奥迪等其他车企身上,估计早就被人口诛笔伐了。

只能说特斯拉这几年一直在打擦边球,靠自动驾驶拉高自己科技企业的光环,为此赚到不少吆喝,谈到自动驾驶大家只先想到的就是特斯拉,这种宣传价值远远高于几次事故带来的声誉损失。

说到底特斯拉确实在拿车主和行人当小白鼠,以便从现实交通中积累自动驾驶经验。而有一些无良车主,在缺乏监管的条件下又缺乏很好的自律性。两边的共同行为对公共交通安全形成了极大的威胁。

可以预料,这种行为不加以约束的话,随着越来越多的特斯拉车辆上路,对行人的威胁将越来越大。

如此看来,真不知道特斯拉汽车应该称为科技座驾还是马路杀手。

本文来源于汽车之家车家号作者,不代表汽车之家的观点立场。

标签: #特斯拉

上一篇蔚来汽车制造基地在哪里-蔚来汽车制造基地

下一篇当前文章已是最新一篇了