特斯拉自动驾驶事故数据被改动-特斯拉自动驾驶故障率

tamoadmin 0
  1. 特斯拉自动驾驶为何事故频发?
  2. 最新通报!杭州一特斯拉“自动驾驶”撞上路灯?调查结果如何了?
  3. 又一起特斯拉自动驾驶撞车事故 类似事件曾判特斯拉车主负全责
  4. 特斯拉声明:车辆数据无法修改、删除,当时特斯拉拒绝提供数据的原因是啥?
  5. 特斯拉FSD自动驾驶测评中三次撞上假人模型

太平洋汽车***斯拉自动驾驶后续可以加。特斯拉中国***已经将车型介绍中的Autopilot自动驾驶功能,更名为了Autopilot自动***驾驶。“***”二字的添加,似乎在告诫特斯拉的车主们,这只是一个***功能,并不能承担全部的驾驶任务

这一改变似乎和国内的一起特斯拉自动驾驶事故有关。

8月3日,一位特斯拉车主驾驶车辆在北京五环路上使用自动驾驶功能时,与车道边停靠的一辆黑色桑塔纳汽车发生剐蹭。

特斯拉自动驾驶事故数据被改动-特斯拉自动驾驶故障率
(图片来源网络,侵删)

无独有偶,据外国媒体报道,8月22日,一位名叫马克_默尔森的美国德克萨斯州的特斯拉车主,在175号高速公路的行驶过程中开启了Autopilot自动***驾驶功能,但由于Autopilot系统未能识别公路上的一个弯道,导致车辆冲出道路,撞上了路边的护栏。

44岁的默尔森在接受***访时说,“曾在那段高速公路上全程开启Autopilot,以为它可以像以前那样应对所有的路况,因此伸手从手套箱里拿衣服。”而在事发前,他还在清理仪表盘,双手并未放在方向盘上。根据这位特斯拉述,车辆在径直冲撞之后,并没有停下,反而继续加速前进。

对比两次由于特斯拉自动驾驶引起的事故可以看出,Autopilot功能在发生事故后,都没有及时***取制动措施。Autopilot若存在这样的缺陷,极有可能对驾驶员和乘客造成更为严重的二次伤害。

接二连三的自动驾驶事故将特斯拉公司推向了风口浪尖,该公司发言人强调,Autopilot只是一项***驾驶功能,驾驶员在使用这项功能时应将双手放在方向盘上,随时准备应对突发状况。与此同时,一位特斯拉员工透露,公司对员工进行了再次培训,要求他们告知驾驶员,在开启Autopilot功能时,双手必须放在方向盘上。而根据发生剐蹭的特斯拉中国车主和其他一些特斯拉车主所说,销售人员在介绍Autopilot功能时,将该功能描述为一个完全自主的驾驶系统。

事实上,特斯拉的Autopilot功能更像一个的ADAS(高级驾驶***)系统,该系统通过车上搭载的GPS系统、前置摄像头、毫米波雷达以及超声波传感器,配合行车电脑软件算法,实现包括车辆的自适应巡航、车道保持、自动换道等一系列***功能。

(图/文/摄:太平洋汽车网问答叫兽)

特斯拉自动驾驶为何事故频发?

***博主发布特斯拉"全自动驾驶"事故***

 ***博主发布特斯拉"全自动驾驶"事故***,特斯拉一直在公开测试“完全自动驾驶”,马斯克还曾自豪地宣称FSD Beta版从未发生过事故。***博主发布特斯拉"全自动驾驶"事故***。

***博主发布特斯拉"全自动驾驶"事故***1

 1月18日,特斯拉CEO埃隆·马斯克声称FSD(完全自动驾驶)测试版推出使用以后,就没有出过错。在此前一日,特斯拉的一名股东Ross Gerber在twitter上称,在FSD发布后的一年多里从未出过***意外或有人受伤,而同期美国则有20000人于交通意外。马斯克转发了这条推特,并确定的说:“没错”。

 而在早前两日,马斯克的这一确定性答案受到了质疑,一位叫 AI Addict的***博主分享了段其体验FSD功能的影片,影片拍于加州一个只有100多万人口的圣何塞。按***的说明,博主已经更新到今年1月5日所推送的 FSD Beta v10.10(2021.44.30.15)版本。***当中车辆在FSD的控制下大部分情况表现优秀,但当行驶到一段右转道路后,***到了3分30秒的时候,车辆右转后没有正确识别出道路边上的防撞柱,毫不犹豫的撞了上去,车内的人也立即被吓到,还好驾驶者一直都有注意路况,也把手一直放在方向盘上发生事故时立即介入,才没有造成更大的***事故。

 当然,特斯拉在网页和FSD功能说明当中一直提醒完全自动驾驶的用户:FSD处于早期测试阶段,使用时必须更加谨慎。它可能会在错误的时间做出错误的决策,所以必须始终保持双手在方向盘上,并额外注意道路状况。驾驶者需要持续关注道路,并准备好立即***取行动,特别是在盲区、十字路口和狭窄道路的驾驶时。现在看来,这种提醒还是很有必要。

 特斯拉 FSD Beta 的安全性一直以来也受到一些质疑,在不同的版本当中会出现不同的问题。比如在早前的9.0版本当中,转变后没有识别出路边的树木,没有识别出公交车道,没有识别出单行道,转弯后直接开到了停车位上行驶等一系列的问题。

 除此以外,外界的批评也包括特斯拉把还没有完成开发的功能直接交付给消费者使用,让人们在实际的行驶道路上使用这一系统不负责任。

 特斯拉的'自动驾驶系统,通过摄像头对外界物体进行识别并做出反应。正常的情况下可以识别路边的障碍物,雪糕筒,特殊车道的标识以及停车标志,目前仅开放给美国的车主付费使用。

 FSD Beta 自2020年9月底正式对外发布使用,对此感兴趣的车主可以在手机当中申请使用,而特斯拉则会根据车主近期的驾驶评分决定是否开通此功能,而事实上,大部分的车主都可以使用上这一功能。特斯拉则会在驾驶过程当中监控、搜集行车数据调整升级优化系统,这也是FSD快速提供升级包的原因。自动驾驶业内,普遍认为激光雷达配合高精度地图才是自动驾驶的解决方案,而特斯拉则反其道而行,完全抛弃激光雷达选择了相信当下摄像头所看到的东西,***已上传三天,特斯拉没有解释事故是否确实因FSD没有识别出路边的那一排绿色隔离柱而导致。

 2021年2月1日,美国国家公路交通安全管理局(NHTSA)要求特斯拉召回5.3万辆电动汽车,原因是这些车辆当中带有的“滚动停车”(rolling stops)功能与法律冲突,这一功能允许特斯拉以每小时5.6英里的速度通过有双向停车标志的车字路口。而美国的交规则要求,这一标志与红灯接近,当路口有这一标志的时候,即便周围没车没人,也必须在路口白线前停下3秒后确认路口的情况下才能继续行驶。而特斯拉的软件则引导车辆低速通过因此被召回。

 马斯克随后解释此功能不存在任何安全问题。他称:”汽车只是减速到大约2英里(3.2 公里),如果视野清晰,没有汽车或行人,就继续向前行驶。“

 一月中马斯克才刚称赞完 FSD Beta 自一年前***开始到现在,“从未”发生过任何错误,但最近这一车主的实测影片可是把马斯克的脸打的肿肿的,因为FSD Beta 的错误判断,车辆直接撞上路边的防撞柱。当然,这个事故也算不上严重,毕竟车辆没有受到严重的损坏也没有人员受伤,不知道这是否包含在马斯克此前的”意外“范围之内。

 美国NHTSA也提醒:“到目前为止,还没有任何一台市售车型可以实现自动驾驶,每辆车都需要司机操控。虽然先进的***驾驶功能可以协助司机避免碰撞或是遭遇交通事故,但司机还是必须随时留意驾驶状况与路况。”

***博主发布特斯拉"全自动驾驶"事故***2

 特斯拉一直在公开测试“完全自动驾驶”(FSD Beta)并非是什么秘密,上个月马斯克还曾自豪地宣称,上线一年来,特斯拉的FSD Beta版从未发生过事故。

 不过,近日一辆使用完全自动驾驶FSD Beta版的特斯拉,在转弯后撞上路边护栏的***得到曝光, 这被认为是FSD Beta版上线后的第一起事故

 从公布的***看,这台特斯拉正常右转,然而转弯后路线发生了偏差, 径直撞向了用于隔离机动车道和自行车道的雪糕筒护栏 ,引得车内驾乘人员一阵惊呼,甚至爆出了粗口,司机立刻接管车辆,踩下了刹车。

 好在雪糕筒为塑料材质,加上应对及时,仅仅是撞弯了其中一个,车头有点受损,其他无大碍。

 车主表示, 已经将该案例上传到了特斯拉反馈部门

 值得注意的是,此前一位特斯拉Model Y车主曾向美国国家公路交通安全管理局(NHTSA)投诉称,自己的车辆在使用FSD Beta的时候发生了事故,但截至目前这一投诉尚无法得到证实。

***博主发布特斯拉"全自动驾驶"事故***3

 2月10日消息,名为AI Addit的YouTube用户提供了首份***证据,证明特斯拉的“全自动驾驶”(FSD)套件并不像埃隆·马斯克(Elon Musk)所称的那样安全。

 AI Addit的***是在美国加州圣何塞市中心的一次驾车过程中拍摄的,首次展示了激活FSD系统的特斯拉Model 3与自行车道护栏相撞的场景,并证明FSD应该对这起交通事故负有直接责任。

 在***中,可以看到特斯拉最新版本的自动驾驶软件FSD Beta Version 10.10指示Model 3转向将自行车道与机动车道隔开的护栏。尽管司机急忙踩下刹车,并疯狂地打方向盘进行躲避,但AI驱动的车辆还是重重地撞上了护栏。

 令人担忧的是,在***中,还能看到这辆特斯拉汽车似乎因为软件原因而闯了红灯,它还试图沿着铁轨行驶,后来又试图驶入有轨电车车道。

 AI Addit的驾车***长约9分钟,撞车***发生在大约3分半钟的时候。这位YouTube用户似乎坐在靠近方向盘的驾驶位上,后座还有一名乘客陪同。在***中可以听到AI Addit的声音:“我们撞车了,但我已经把刹车踩到底了!”乘客回答称:“我真不敢相信这辆车竟然没有停下来。”

 马斯克上个月曾声称,FSD Beta系统从未发生过事故,但新的***提供了证据,证明事实并非如此。在AI Addit记录的***中,可以看到司机的双手只是轻触方向盘,而不是握紧它,完全由FSD控制方向盘的运动,使汽车遵循地图上预先定义的路线行驶。

 FSD是专为特斯拉汽车提供支持的先进司机***驾驶软件,属于L2级自动驾驶系统,这意味着该系统可以控制汽车的速度和方向,允许司机双手短暂离开方向盘,但他们必须时刻监控道路,并做好接管车辆的准备。这项技术在购车时是可选的,包括几个自动驾驶功能,但仍需要司机监督。

 在发生撞车事故的前一刻,可以看到司机双手猛打方向盘,但为时已晚。虽然车辆损伤并不严重,但被完全撞倒的护栏在汽车前保险杠上留下了油漆印记。

 在这段***发布前不久,特斯拉被迫召回近5.4万辆电动轿车和SUV,因为它们的FSD软件无法识别停车标志。美国安全监管机构2月1日发布的文件显示,特斯拉已通过“空中软件更新”禁用了这一功能。此外,特斯拉在与美国国家公路交通安全管理局(NHTSA)官员举行两次会议后同意召回受影响车辆。

 许多司机正帮助特斯拉测试FSD系统,它允许车辆以9公里的时速通过带有停车标志的路口。在AI Addit的测试中,该系统可能没有意识到自行车道上有一段路被封锁了。在***的大部分内容中,Model 3似乎在检测绿色自行车道护栏时遇到了问题,这些护栏散布在圣何塞市中心,这辆车几次朝它们驶去。

 这段***似乎突出了FSD的其他不足之处。FSD还处于测试阶段,因此将在广泛推出之前进行改进。在***中,这辆车的AI试图指示其左转进入繁忙的主路,尽管当时正有一辆卡车迎面驶来。不过FSD似乎在“耐心”等待行人过马路和避开其他车辆方面做得很好。

 2021年年底,特斯拉表示,有近6万名车主参加了FSD Beta***。该***只适用于该公司特别挑选的特斯拉车主,以及安全得分高达100分(满分100分)的司机。然而,一位投资者去年10月透露,他的安全得分只有37分,但他被允许使用FSD Beta。

 这些安全得分是由司机驾车时的行为决定的,司机允许特斯拉使用车载软件监控他们的驾驶过程。特斯拉警告说,任何使用L2级自动驾驶系统的司机必须随时准备介入干预。

 FSD是特斯拉司机***驾驶系统Autopilot的升级版,后者曾引发多起致命事故。到目前为止,已经核实了12起涉及Autopilot的亡事故,以及一系列非致命的撞车事故。

 尽管马斯克在1月份断言FSD Beta的安全记录无懈可击,但NHTSA在2021年11月收到了第一起投诉,称FSD导致一名特斯拉司机撞车。这起事故发生在加州布雷亚,当时一辆激活FSD软件的特斯拉Model Y驶入错误车道,并被另一辆车撞上。

 无独有偶,最新公布的监控***显示,2021年8月,激活Autopilot的特斯拉Model Y撞上了停在美国64号高速公路旁州际公路巡逻队的警车,导致警车失控翻滚并撞上了站在路边的副警长。随后,这辆车侧扫指示牌,最终滚下山坡撞到树上。 据称,这辆特斯拉汽车的司机是德文德·戈利(Devainder Goli)医生,他在汽车处于自动驾驶状态时正在手机上看**。

 自动驾驶汽车专家萨姆·阿布萨米德(Sam Abuelsamid)表示:“这些系统都不是自动驾驶系统,而是司机***系统。所有系统都是为司机观察道路而设计的,随时都要保持专注。事实上,在特斯拉的系统中,司机的手也应该总是放在方向盘上。制造商可能经常夸大系统能做什么,而不会谈论它们不能做的事情。”

最新通报!杭州一特斯拉“自动驾驶”撞上路灯?调查结果如何了?

近日,一起处于自动驾驶状态的特斯拉Model X撞击护栏致驾驶员亡的事故再次将自动驾驶技术推到了风口浪尖。一下子又再次“引爆”了人们对自动驾驶技术的质疑。

这些年来,特斯拉在全球范围内累计卖出约28.7万辆车,但已知的因自动驾驶致的事故已经达到了5起。首例就发生在中国河北邯郸,此事当时在国内引起极大轰动,事故中亡车主的老父亲两年多来一直在通过法律途径为儿子讨公道,直到前一段时间特斯拉才勉强承认了事故是由自动驾驶系统引起的。

除特斯拉外,其余还处于测试阶段的自动驾驶技术也常常发生事故,就在今年早些时候一辆Uber自动驾驶测试汽车才酿成了全球首例自动驾驶致行人亡的***。

光是2018年前三个月,有据可查的因自动驾驶导致的***事故就已经达到4起,其不靠谱程度之高,已经完全对不起“自动”二字了。

其实从理论上讲,按照目前的客观技术条件,实现“靠谱”的自动驾驶是完全可以实现的,但为何当下的自动驾驶技术却总是事故频发呢?最近美国专家给出了一个解释,答案让人大跌眼镜。

经过对多起特斯拉汽车自动驾驶事故的分析,这位名叫吉姆麦克弗森的美国驾驶安全专家发现,事故发生时都有一个共同点,就是当天的阳光很强烈。在实际测试后,吉姆分析强烈的阳光会对自动驾驶系统的探测摄像头造成影响,导致摄像头成像模糊、失真甚至完全是一片白,因此自动驾驶系统会无法识别出前方路况和障碍,从而导致事故的发生。

仔细一想确实如此,用过全景影像的人都知道,光线对汽车摄像头的影响非常大,尤其是清晨和傍晚太阳角度较低时,阳光直射到汽车某个角度的摄像头上,全景影像系统中那个角度的成像就会是一片白光。

别说汽车上的摄像头了,就算是目前智能化程度和紧密程度最高的手机摄像头甚至单反相机,在面对阳光直射时也很难保证成像的还原度。

美国专家给出的这个答案,看起来非常的简单且另类,但很有可能会成为人类解决自动驾驶技术缺陷的新思路。

又一起特斯拉自动驾驶撞车事故 类似***曾判特斯拉车主负全责

车是生活中常见的交通工具,给人的生活提供了很大的方便,也提升了家庭的幸福感,拥有了小汽车,在外出的时候终于不用挤公交挤地铁了,在周末的时候还可以带着亲朋好友外出游玩,是很惬意的一件事。随着社会上车辆越来越多,在道路上行驶的时候发生的交通事故,问题也日益严峻。在杭州一辆特斯拉自动驾驶撞上路灯,警察调查之后发现结果反转。

在浙江杭州发生了一起***,这个事故和其他的***不同。据车主介绍,当时他正在副驾驶上面乘坐,使用的是特斯拉自动驾驶的功能,没想到车辆却撞上了路边的路灯。司机介绍自己在和朋友一起吃饭的时候喝了酒,他准备叫代驾。代驾行驶在北门的时候无法进入,随后他就坐到了副驾驶的位置上,使用了自动驾驶功能开往北门。

在行驶的过程当中,车辆却突然失控,冲出路面,撞上了路边的灯杆以及路旁的座椅。对于司机的说法,特斯拉方面却称车主撒谎,因为特斯拉汽车设计了重力感应设置,如果驾驶室没有人,那么车辆根本就没有办法启动。交警到达了事故现场,就对车主进行酒精测试,并且将他带去医院抽血检测。警方在调查之后确定在车辆当中,只有他一个人,他全程都是坐在驾驶位。

这位男子的检测结果显示醉酒驾驶,因为他违反了交通规则被吊销驾驶证,他在5年之内不可以取得驾驶证。这位男子在酒后开车实在是太危险了,一旦发生事故,后果不堪设想。如果撞到了人不仅会钱财面临损失,有可能还面临着牢狱之灾。他竟然还骗警察说自己是坐在副驾驶室,特斯拉官方回复也让他***打脸。

特斯拉声明:车辆数据无法修改、删除,当时特斯拉拒绝提供数据的原因是啥?

埃隆·马斯克的SpaceX刚实现人类史上首次商业载人航天,他的特斯拉 汽车 就在Autopilot(自动***驾驶)模式中出了一次撞车事故。

近日,在***,一辆特斯拉Model 3直直撞向一辆横躺在马路上的货车,所幸,此次并无人员伤亡。据***显示,当时车流量不多,公路可见度良好。

那么,问题出在哪里?警方接受媒体***访时称,当时特斯拉处于Autopilot模式,时速定速约为110公里。车主本以为车子检测到障碍物会自动刹车,然而当他注意到车子没有慢下来时,他踩了刹车却已来不及。

另外,货车司机也告诉警方,称他的货车发生事故,侧翻在马路上,他自行脱困后到货车后方的分隔岛等待救援,在注意到特斯拉 汽车 直直驶向他的货车时,他曾挥手示意却没有用。

此前,特斯拉就已经发生过类似的撞车事故,其中一起也在***。据当时的调查结果显示,由于***接受电动车挂牌上路,并未全面开放“自动驾驶”功能,“自动驾驶”功能仅能作为***,一旦发生***,肇事责任仍由驾驶人负责。总而言之,车还是要驾驶人来开。

上述两起事故并无人员伤亡,但截至目前,美国就已经发生了至少三起特斯拉致***。

2019年3月,在美国德尔雷海滩附近,一名特斯拉Model 3驾驶员在事故发生时也处于Autopilot模式中,随后特斯拉撞向了一辆卡车。

图自网络。

2018年3月,在加州圣塔克拉县山景城的公路上,一名特斯拉驾驶员开启了Autopilot模式。随后,他在玩手机 游戏 的过程中,没有注意到Autopilot将车开向高速公路的分道角区,并撞向了屏障,驾驶员被送进医院后身亡。

图自网络。

2016年5月,事故发生在美国佛罗里达州的威力斯顿,一辆特斯拉Model S开启了Autopilot模式,没能发现一辆拖车的白色车身并撞向拖车,结果是特斯拉驾驶员身亡。

对于上述事故,美国国家运输安全委员会(National Transportation Safety Board)分别发布了调查报告,均认定***的可能原因在于,特斯拉驾驶员未能避让车辆或障碍物,过度依赖特斯拉的自动化模式。同时,报告批评了特斯拉Autopilot的操作设计,称该设计与特斯拉的指导方针和警告有所违背,使得驾驶员能长时间脱离驾驶,使用自动模式。

需要注意的是,特斯拉将自动***驾驶取名为“Autopilot”,这被不少人诟病。“Autopilot”听起来就像“自动驾驶”,然而这两者的区别并不小。

据特斯拉******介绍,Autopilot自动***驾驶功能“需要驾驶人主动监督,并无法使车辆自动驾驶”。

图自***特斯拉***。

美国高速公路安全保险协会(IIHS)的一份调查报告指出,由于当前自动驾驶系统的局限,部分厂商对自动***驾驶系统的命名似乎过于夸张,使得驾驶员获得了错误信息:48%的受访者认为在使用特斯拉的AutoPilot模式时,自己能放开方向盘。当问及日产(Nissan)的半自动驾驶系统(ProPilot Assist)时,有33%的人认为能放开方向盘。随后是通用 汽车 的超级巡航(Super Cruise)和BMW的***驾驶Plus(Driving Assistant Plus),比例下降至27%,奥迪 汽车 的交通堵塞助手(Traffic Jam Assist)排最后,只有21%。而在其他问题上,包括打电话、发短信、看***、睡觉等,特斯拉的认可比例都超过了其他车厂。

“特斯拉的用户手册清楚地说明了Autopilot是一种驾驶员要亲自驾驶的功能(‘Hands-on feature’),但这显然没有传达给所有人”,IIHS ***大卫·哈基(D***id Harkey)接受媒体***访时称,“制造商应该考虑其系统名称所传达的信息”。

特斯拉FSD自动驾驶测评中三次撞上***人模型

因为特斯拉的车载数据属于技术数据,这个数据不能轻易外漏。

特斯拉的风波已经闹了很久了,从最开始的特斯拉刹车问题,到后来的自动驾驶问题,以至于到了整个技术问题,现在消费者对特斯拉的意见越来越大,特斯拉已经很难应对这种场面。

特斯拉目前的处境非常艰难。

如果按常理来说的话,特斯拉属于自动驾驶技术里面最优秀的企业,特斯拉的车辆也非常安全。但是当特斯拉的矛盾一个接一个爆发出来以后,消费者对特斯拉的信任感也越来越低,所以特斯拉的处境非常艰难,现在不管特斯拉做了什么,这些事情总会成为热点***,很多人也会抓住特斯拉的问题不放。

特斯拉当初不想公布车载数据。

正如我在上面所提到的那样,特斯拉的车载数据属于技术数据,这个数据属于一家企业的隐私。当车主要求特斯拉公布数据之后,特斯拉显然拒绝了车主,但是当车主大闹特斯拉展台以后,特斯拉被逼无奈只能提供出数据。但即便如此,很多人依然觉得特斯拉的做法存在问题,因为很多人觉得特斯拉的数据时间太短了

车载数据里面有很多技术细节。

我们可以这样理解,其实一家企业的车载数据里含有很多自动驾驶和新能源汽车的技术细节,没有任何企业愿意轻易提供自己的技术。在特斯拉的系列风波之后,特斯拉已经做出了绝对妥协,并且愿意交出自己的数据。消费者们觉得特斯拉必须把所有技术数据公布出来,这样才能检测技术是否存在问题,但特斯拉也有难言之隐,这正是目前特斯拉问题的矛盾所在

在我个人看来,特斯拉需要好好应对面前的公关危机,怎么安抚消费者成为了特斯拉必须应对的事情。

特斯拉FSD自动驾驶测评中三次撞上***人模型

 特斯拉FSD自动驾驶测评中三次撞上***人模型,测试团队驾驶员驾驶Model 3在开启FSD的状态下进行***人碰撞测试,然而车辆一连三次都撞上儿童***人模型。特斯拉FSD自动驾驶测评中三次撞上***人模型。

 特斯拉FSD自动驾驶测评中三次撞上***人模型1

 马斯克曾多次吹爆特斯拉的FSD(完全自动驾驶)功能,称其‘令人惊叹’,但并非所有人都认同他的观点,甚至还有批评者,将特斯拉FSD功能,看作是所有美国人的致命威胁。

 8月10日消息,Green Hills Software的CEO、特斯拉知名反对者丹·奥多德(Dan ODowd)资助并发布了一项评测结果,特斯拉的FSD自动驾驶系统在评测中多次撞上儿童***人模型。

 据悉,奥多德去年曾发起一项运动“黎明项目”,禁止他所说的不安全软件进入安全系统,该组织一直在积极测试特斯拉的软件。

 该组织发布的最新一段32秒的宣传***中,在加州的一条测试车道上,一辆特斯拉在开启FSD功能后,车辆一连三次都撞上或碾压了儿童***人模型。

 测试团队称,这项测试在过去一个月的时间里进行了几十次。在撞到人体模型之前,特斯拉车辆从未尝试转向,或者减速超过每小时25英里。

 测试司机表示,在FSD启动之后,特斯拉Model 3“开始摇摇晃晃,好像很迷惑,放慢了一点速度,但仍然以超过每小时25英里的速度撞击并碾压了人体模型”。

 奥多德发声称:“我们对特斯拉FSD的安全测试结果非常不安,这应该成为***取行动的呼声。埃隆·马斯克(Elon Musk)说,特斯拉FSD软件‘令人惊叹’,但事实并非如此。它对所有美国人都是致命的威胁。”

 目前,特斯拉还未对此回应。

 特斯拉FSD自动驾驶测评中三次撞上***人模型2

 知名特斯拉批评人士CEO丹·奥多德(Dan ODowd)日前发布的一段测试***,批评特斯拉FSD(全自动驾驶)功能。

 在这段测试***中,测试团队驾驶员驾驶Model 3在开启FSD的状态下进行***人碰撞测试,然而车辆一连三次都撞上儿童***人模型。

 测试团队表示,这台Model 3对于前方***人的`表现很“迷惑”,虽然放慢了一点速度,但仍然以超过每小时25英里的速度撞击了***人。

 丹·奥多德表示对这一测试结果非常担忧,并呼吁相关方面***取行动,“特斯拉FSD软件被马斯克赞扬,但事实并非如此,这对所有美国人都是致命的威胁。”

 丹·奥多德算是特斯拉的“头号黑粉”,他同样是Green Hills Software软件公司的CEO,因此两家公司可能在利益上存在瓜葛。实际上,这已经不是丹·奥多德第一次攻击特斯拉了。

 他曾公开表示,特斯拉FSD Beta“糟糕透顶”、“问题频出”,应当在美国道路上彻底封杀。为了达到这一目的,他曾花费约200万美元向全美投放了一条名为《什么速度都不安全》的广告宣传***,集中阐述了特斯拉FSD系统的潜在危险。

 特斯拉的FSD Beta系统被认为是全球量产车中能力最强的自动驾驶系统之一。该公司曾在去年安排一台特斯拉Model 3,在自动驾驶开启的状态下,从SpaceX总部前往位于硅谷的特斯拉前总部,在500多公里的路程上没有进行过一次人工接管。

 特斯拉FSD自动驾驶测评中三次撞上***人模型3

 根据本周公布的一项非监管评测结果,特斯拉的FSD自动驾驶系统在评测中多次撞上一个儿童大小的人体模型。这项测试由Green Hills Software首席执行官、知名的特斯拉批评者丹·奥多德(Dan ODowd)资助并发布。

 奥多德去年曾发起一项运动“黎明项目”,禁止他所说的不安全软件进入安全系统。随后,该组织一直在积极测试特斯拉的软件。这场由奥多德资助的运动呼吁美国国会关闭特斯拉的软件,奥多德此前还曾试图以禁止特斯拉FSD自动驾驶系统为纲领来竞选美国参议员。

 本周二,该组织在最新的广告宣传中发布了一段***。在***中,一辆特斯拉汽车在开启FSD功能时多次撞坏人体模型。

 特斯拉发言人没有对这条消息做出回应。

 这段32秒的***展示了,在加州一条测试车道上,特斯拉汽车三次撞坏人体模型。“黎明项目”的发言人表示,这项测试在过去一个月的时间里进行了几十次。在撞到人体模型之前,车辆从未尝试转向,或者减速超过每小时25英里。但根据***的宣誓书,这项测试只进行了三次。

 值得注意的是,这项测试并不是在美国监管机构的监督下进行,而是独立开展的,因此没有受到一致的测试标准的约束。

 例如,在美国,美国国家公路运输安全管理局(NHTSA)和公路安全保险研究所使用至少五种不同类型的测试方法来测试汽车的安全性能。NHTSA在2020年启动了一个自动化的测试项目,通过崩溃报告来评估软件。

 特斯拉此前一直避免向机动车辆管理部门报告事故数据,这是因为该公司的系统被归类为L2的驾驶***系统,而不是类似Waymo等竞争对手的自动驾驶系统。后者需要遵守不同的事故报告标准。

 在“黎明项目”进行的每一次测试中,特斯拉汽车都会以每小时40英里的速度起步,在指定的车道内行驶100码,随后撞上人体模型。在测试中,专业的测试司机被要求将手从方向盘上移开,只有在车辆与人体模型碰撞后才能刹车。

 特斯拉则对司机表示,其驾驶***系统无法取代司机,因此即使该系统开启,司机也仍然应该将手放在方向盘上,并随时准备好接管车辆的操控。

 测试司机阿特·海尼(Art Haynie)在声明中表示,在FSD启动之后,特斯拉Model 3“开始摇摇晃晃,好像很迷惑,放慢了一点速度,但仍然以超过每小时25英里的速度撞击并碾压了人体模型”。

 奥多德则在声明中说:“我们对特斯拉FSD的安全测试结果非常不安,这应该成为***取行动的呼声。埃隆·马斯克(Elon Musk)说,特斯拉FSD软件‘令人惊叹’,但事实并非如此。它对所有美国人都是致命的威胁。”

 特斯拉FSD以往也曾引发过争议。上月,加州机动车辆管理局对特斯拉提***讼,称该公司在宣传驾驶***系统时***取了“错误或误导性”的说辞。

 尽管FSD顾名思义是“全自动驾驶”,但实际上只是选装的功能包,让特斯拉汽车能够自动变道,进入并离开高速公路,识别停车标志和红绿灯,以及自动泊车。

 该软件目前仍然处于测试中,用户可以以1.2万美元的选装包,或是每月199美元的包月服务等形式来购买。在使用FSD时,司机仍然需要随时关注车辆情况。目前,这款软件有超过10万名付费用户,特斯拉利用这些用户来实时测试该软件,同时让系统的人工智能模型可以向有经验的司机学习。

标签: #特斯拉

上一篇人类最伟大的成就特斯拉是谁-特斯拉最大贡献

下一篇当前文章已是最新一篇了