1.特斯拉自动驾驶又惹祸,首次致行人死亡

2.特斯拉自动驾驶是几级

3.开电动车更容易出事故吗?

4.L2自动驾驶,到底安全吗?

5.又一名车主身亡,别被“自动”驾驶忽悠了

6.特斯拉的“完全自动驾驶”到底靠不靠谱?

车东西(公众号:chedongxi)

作者?|?James

编辑?|?晓寒

特斯拉的FSD“完全自动驾驶”系统,离规模量产可能比你想的还要远。

10月份,特斯拉向少数种子用户推送了FSD?Beta功能(后续又推送了多个更新),让特斯拉Model?3可以在城市的各种场景实现L2级自动驾驶,包括车道内跟车、自动变道、自动等红灯、自动调头,甚至是经过环岛等等。

特斯拉FSD?Beta车机显示

这一功能的推送,让特斯拉的车型在高速和城市两个场景都实现了L2级自动驾驶,用户只需要盯着路况监控车辆表现即可,相当于是实现了L4自动驾驶的功能,再次展示了特斯拉在自动驾驶方面的领先实力。

马斯克今年在上海世界人工智能大会上宣布,特斯拉将在今年完成L5级自动驾驶基本功能的研发工作,说的就是FSD。

虽然目前美国用户上传的视频显示FSD?Beta有很多惊人之处,但也有车主发现了一些致命问题——比如在遇到道路维修时,FSD?Beta的表现就非常差,甚至可以说完全无法使用。

美国特斯拉车主Raj日前就专门进行了一次系统的测试,打开FSD?Beta功能驶过了4个道路施工区域,向我们表明了特斯拉FSD?Beta遇到施工这一场景究竟有多不靠谱。

一、驶过八个施工区域?六个都无法正常通过

近日,特斯拉车主Raj在测试FSD?Beta的过程中发现,FSD的最强对手竟然是封闭路段。

他在公共道路上行驶时发现,特斯拉FSD?Beta在大多数路段都能很好地自动驾驶,在十字路口转弯、等红灯、调头都能轻松完成。

在12分钟的视频中,Raj一共测试了8个施工区域,其中有6个都无法正常通过,某些区域还需要人为干预。

在行驶一次后,Raj调头让车辆再次行驶,表现依然不太理想。有时候不敢往前走,有时候又想撞向封闭道路的锥桶区域,甚至还会“画蛇前进”。

车主Raj道路实测特斯拉FSD?Beta

1、遇到施工频繁蛇形前进

在Raj发布的视频中,他一直开启特斯拉FSD?Beta前进,但车辆遇到了多个区域临时道路封闭。在数百米以外的位置,道路修复单位已经摆上了警示牌,提示前方左侧道路变窄。但由于特斯拉无法识别停车标志以外的路标,因此仅能识别在道路变窄标志下方的锥桶。

继续向前行驶,特斯拉能够沿着锥桶划定的路线前进,防止撞上锥桶。但是在通过路口时,由于没有摆放锥桶,此时特斯拉“有点懵”,在左右两条车道之间纠结,并作出了非常危险的“画蛇前进”动作。

特斯拉在左侧道路变窄时“画蛇前进”

不过还好,当时车速比较慢,换道过程比较平缓,最终特斯拉通过第一个路口,进入左侧道路封闭路段。

2、碰见自行车道不知所措

在这一路段,车辆仅能在最右侧非机动车道行驶,这时特斯拉的表现越来越不稳定。

非机动车道道路狭窄且车道线将车道一分为二,特斯拉以这样的道路似乎不太适应,一直打着左转向灯,想向左侧变道。同时,在“踏上”非机动车道的那一刻,特斯拉就开始紧张,方向盘不稳定地左右转动。

在经过两个锥桶之间的空隙时,特斯拉多次向左猛打方向,驾驶员快速反应接管车辆,继续保持右侧非机动车道行驶。

同时,也逐渐跟不上前方大奔的脚步,速度放缓。在即将停车时,车辆发出提示音,请求驾驶员接管。

进入非机动车道后,车辆开始画蛇同时减速

Raj重新开动车辆后,这一路段不再允许打开自动驾驶,仅能驾驶员手动驾驶前进。

3、道路中央施工直接撞了上去

在另一临时封闭路段,工作人员将中间车道封闭,看似车辆可以选择左右两条路行驶,但道路最右侧为非机动车道,因此车辆只能靠左侧车道行驶。同时,临时路牌也提醒驾驶员,车辆需要靠左行驶,避免驶上非机动车道。

不过,FSD?Beta在检测到前方道路将要封闭后,错误地选择向右行驶进入非机动车道。

临近封闭道路时,特斯拉在谨慎地右转的同时,反而将路径规划选择向左。

特斯拉错误选择右侧非机动车道行驶,但仍需要驾驶员接管

在撞上锥桶之前,驾驶员选择手动接管,被迫让车辆驶上非机动车道。

4、无视施工阻拦硬要转弯

之后,Raj又将车辆开上另一路段,在规划路线中,车辆将会遇到右转道路封闭的场景。

特斯拉在临近右转路口时,打开转向灯并向右侧变道。到达路口时,特斯拉微微右转,但因为识别到障碍物,所以放弃右转继续前行。

右转道路封闭时强闯

在前行几米后,特斯拉再次尝试右转,试图强行闯入右侧封闭道路,驾驶员手动接管,最终没有造成事故。

5、仅有两次顺利通过

临时封闭道路场景给特斯拉FSD带来了不小的麻烦,但是在某些情况下,特斯拉也能完美处理临时道路变窄的场景。

在整个测试过程中,特斯拉FSD?Beta仅有两次妥善处理了封闭道路设施。

仅有少数情况能顺利通过修缮路段

Raj分析称,这是因为特斯拉提前向右侧变道,并非真正识别左侧变窄路标。

6、同一场景再尝试?依然无法通行

这几个复杂路段测试完成后,Raj让车辆调头,如果将此前的场景再测试一次,特斯拉的表现会有提升吗?结果是,第二次的表现似乎更糟糕。

同一路段再次行驶表现更加糟糕

在左侧道路封闭时,特斯拉不断试图向左侧变道,驾驶员仍旧需要多次紧急接管,才避免事故发生。

在表现最糟糕的情况下,在20秒的时间内驾驶员一共干预了4次。几次紧急接管后,Raj都将车辆的行驶报告向特斯拉提交,特斯拉工程师将会通过自动驾驶电脑的“影子模式”不断提升车辆的自动驾驶能力。

二、城市道路L2自动驾驶基本实现?环岛都能轻松拿下

特斯拉虽然在临时封闭路段表现不佳,但是FSD?Beta在其他路段的表现可谓非常出色。在多家量产自动驾驶车企推出与特斯拉类似的自动辅助导航驾驶、自动辅助变道功能之后,特斯拉在今年10月面向测试用户更新了FSD?Beta,可以基本实现城市道路的L2级自动驾驶。

目前,特斯拉车主在购买FSD选装套件之后,车辆都能在高速公路和城市快速路上实现自动辅助导航驾驶、自动辅助变道等L2级自动驾驶功能。在停车场,驾驶员可以使用自动泊车让车辆泊车入位,取车时可以智能召唤让车辆自动开到驾驶员面前。在美国,车辆还能识别道路上的信号灯,并根据信号灯颜色判定停车或前进。

不过,特斯拉完全自动驾驶FSD缺失了一个重要场景,那就是无法在城市道路实现自动驾驶。FSD?Beta的发布,补充了这一短板。

根据FSD?Beta的更新说明,车辆可以在非高速公路路段实现自动变道、根据导航路线行驶,既能够在车流和其他物体之间穿梭,也能在路口左转、右转。这也就意味着特斯拉将在不久的将来面向所有FSD选配用户更新城市道路L2级自动驾驶功能。

特斯拉FSD?Beta更新说明

同时,特斯拉也提示,驾驶员需要实时关注道路交通状况,并握住方向盘,随时准备接管车辆,在有盲区的拐角、十字路口以及窄路路段要尤其注意车辆行驶状态。

实际测试显示,特斯拉FSD?Beta的表现确实非常出色。

另一名车主Brandon让特斯拉在黑夜行驶,行驶至一段双向两车道的道路上,车道线并不清晰,车机显示中央车道线显示时隐时现。即使没有车道线,车辆一直保持靠右,并跟随导航行驶。

FSD?Beta转弯测试

到达路口停车标志前300英尺(约合91.4米)时提示前方有停车标志,即将停车。

在路口左转时,对向车道驶来车辆,系统根据对向车辆可能造成的威胁标记成白色、**、紫色、红色。在停车标志前停下等待(美国交通法规规定)后启动车辆,左转通过十字路口。

这是量产L2级自动驾驶的一项重大进步。

在此前,所有量产版L2级自动驾驶系统都只能随公路“调整方向”,并非真正的“转弯”,而特斯拉实现了让车辆在十字路口转弯。

据外媒The?Verge报道,特斯拉在完成自动驾驶的神经网络和控制算法基本架构的重写之后,才得以拓展更多的自动驾驶功能。也就是特斯拉已经完成了从二维图像的识别升级到四维环境的识别,自动驾驶性能得以显著提升。

夜晚环境中,路灯、路边建筑物灯光、前车刹车灯、对向车道头灯都会让车辆自动驾驶变得更加困难。此前车东西在夜晚测试使用特斯拉自动辅助导航驾驶(NOA)时,夜晚的性能确实不如白天。

在Brandon的测试中,即便在光线干扰非常强的情况下,特斯拉也能“看清”前方交通信号灯变化。

夜晚光线复杂也能快速识别信号灯

接下来,Brandon将车开到了有环岛的路段,根据导航路线,车辆需要在环岛第二出口驶出。

视频中可见特斯拉首先在环岛外停车(美国交通法规规定),确认安全后驶入环岛并按照导航路线顺利驶出。

特斯拉自动驾驶通过环岛

这是量产L2级自动驾驶的另一项重大进步。

在此前,所有量产L2级自动驾驶系统都无法在环岛自动驾驶。别说自动驾驶系统,即便是驾驶员手动驾驶,有许多驾驶员也难以“驾驭”环岛这样的特殊路段,不敢驶入、驶出环岛、错过环岛出口等情况时有发生。

从演示视频中可以看到,特斯拉已经有能力解决人类驾驶中的这一痛点。

在FSD?Beta发布的第二天,马斯克就自信地宣布,FSD选配马上涨价。目前美国车主选配FSD的价格是1万美元(约合6.54万元人民币),这也是特斯拉年内第二次宣布FSD选配套件涨价。中国车主选配价格暂时没有变动,今年只经历了一次涨价,目前价格为6.4万人民币(对应8000美元)。

不过,目前选配了FSD的中国车主还不能让车辆识别红绿灯并作出正确反应,功能相比于美国用户更少。随着用户获得的功能增加,未来中国用户选配FSD的价格或许还将增加。

结语:软件定义汽车?同样能定义自动驾驶

在量产自动驾驶领域,特斯拉或许是最胆大的那一个。仅凭视觉传感器、非高精地图、非高精定位,就能实现在大多数场景中自动驾驶。相比其他厂商,激光雷达、高精度地图、高精定位、车路协同等技术堆上车身,受硬件成本限制,量产却成为最大的难题。

软件定义汽车如今已经成为行业共识,想要提升自动驾驶水平,必须要提升软件的水平,真正让自动驾驶车辆在路上跑起来,这样才能对自动驾驶系统不断迭代,让可靠性99.9%之后的9越来越多。

本文来源于汽车之家车家号作者,不代表汽车之家的观点立场。

特斯拉自动驾驶又惹祸,首次致行人死亡

编者按:自动驾驶对于放大镜这类开车恐惧症的人员而言,简直是福音一般,但这么几年以来,也不过满大街跑的是L2级别,顶多也不过是有少量的L3级别辅助驾驶,至于L4以及L5这种近乎于完全自动驾驶的能力,目前在国内还是不允许上路,国外的实际使用过程之中,也的确是有事故发生,近日特斯拉驾驶似乎又出现无法识别白色的现象,撞击白色卡车,那么L5级的自动驾驶到底离我们有多远?

据外媒BGR消息,一段来自个人分享的视频显示,上周末疑似一辆自动驾驶的特斯拉Model 3在中国台湾的高速公路行驶时撞上了一辆横在路边的卡车。不过这样的事情并非第一次,早在几年前,特斯拉在美国发生的一起致命车祸最终调查结果就是Autopilot传感器无法从周围明亮的天空中辨认出这辆白色卡车。而本次在台湾发生的事故也是由于司机和传感器均未发现障碍物,从而导致了车祸的发生!

但以目前自动驾驶的发展来看,这已经是全球最成熟的解决方案,特斯拉的优势在于接近百万辆的 汽车 能够源源不断的输送数据,以此来提高机器的判断案例和数据积累,这是其他平台诸如谷歌百度等等做不到的。

自动驾驶的级别从目前主流理念来看,分为L0—L5级。

L0级也就是没有自动化技术,车辆的驾驶完全靠驾驶员手工操作。

L1级驾驶辅助其实已经非常普遍,很多国产10万级别的车也会具备定速巡航,泊车入位这样的功能,但是驾驶员的双手是不能离开方向盘的!

L2级别是目前应用最高的辅助驾驶级别,包括高速自动辅助驾驶、拥堵时的自动辅助驾驶,自动泊车和自动危险预警刹车等功能,驾驶员在某些条件之下,甚至可以短暂的离开方向盘。

L3 级别为有条件自动化,这一级别驾驶员已经可以将油门刹车的权力交出去,但并不能将注意力转移,需要随时观察以便手动介入,也不能完全丢掉方向盘,只能说这是一个尴尬的级别,甚至会让驾驶员更累!

L4级别则是高度自动化,在这个级别里,驾驶员已经可以完全放开方向盘,油门和刹车的权力也交给机器,自己可以处理其他事情,也就是说,机器已几乎完全能够代替驾驶员!

L5级别为理想中的级别,完全自动化,整个驾驶过程中,不需要驾驶员辅助观察判断,一切复杂的情况,机器会自行判断,用户可以在过程中做任何事情!

其实从目前的 汽车 工业发展程度来看,L3在一些高端车型上已经非常普及,在电动 汽车 领域甚至是标配,这让我们对于L4级别以上的自动驾驶异常的期待,一旦L4级别的自动驾驶逐渐普及,将有可能对目前的驾驶相关的行业法律法规,产生革命性的变化,甚至于驾考即将不存在!

但特斯拉的实例告诉我们,L4级别以上的全自动驾驶,还真的没有那么简单,事故的发生证明目前特斯拉的解决方案还存在问题,比如在雷达方面,如果更换成更加昂贵的雷达技术,则能够能有效的避免此前的事故,但从另一个方面来看,这样又无疑会增加特斯拉的成本,使其售价不得不提升太多,造成竞争力的下降。

其次,真实驾驶场景之下,路况瞬息万变,考验的是驾驶人员的经验,心理素质以及临场解决问题的能力,这对于机器而言要求太高,所以机器只能实时的判断风险,从而规避风险,可一旦突发性的事件发生,机器是否能反应过来呢。

毕竟之所以多个国家禁止自动驾驶在现有的条件之下上路,并不是不支持自动驾驶,而是由于自动驾驶一旦发生事故,就很有可能造成车毁人亡的结果,并不能够侥幸的忽略很小的概率!

目前对于中国用户而言,特斯拉的全自动驾驶包售价达到了56000元,这已经接近车价的五分之一,但从目前所能够在中国使用的功能而言,并不划算,甚至于,买到的这个功能其实是一种期货,有点类似于期房的概念,特斯拉承诺在未来才会交付这种功能,而且我们也并不能够判断,随着特斯拉的销量剧增,研发成本会不会降价,也就是说几年之后,真正可以使用自动驾驶的时候,购买的价格也有可能比现在还便宜!

最重要的是,这样的技术可以通过OTA的方式进行,用户并不需要担心日后无法获得这样的功能!

特斯拉自动驾驶是几级

文/田忠朝

最近特斯拉又吃官司了,因为自动驾驶致人死亡被告上了美国加州圣何塞联邦法院(特斯拉总部附近)。

起因是此前东京Tomei高速公路外侧发生了一起小事故,44岁日本男子Yoshiro Umeda下车查看碰撞情况,并与其他人一起站在一辆货车后面。

而肇事的Model X正处于自动驾驶状态,车主打了个小盹,它的前车发现前方事故后立刻变道离开,Model X 则加速撞上了人群,致使Yoshiro Umeda当场死亡。

▲大概类似这种情况

这也是特斯拉自动驾驶车祸以来,首起致行人死亡的事故,此前的死亡人员基本都是车主本人。

从这起事故中不难看出,Model X车主要承担一定的责任,因为他没有尽到驾驶员的责任。

但肇事的Model X就无责了吗?

Yoshiro Umeda的家人认为,这起事故是特斯拉自动驾驶缺陷造成的,为什么自动驾驶系统没有识别前方障碍物(行人),反而加速撞了上去?

我想可能的解释就是特斯拉自动驾驶系统默认高速路上不会出现行人,在它的系统中障碍物只可能是车辆或雪糕筒,所以前车变道离开后,Model X认为前路畅通,反而加速。

事实上,特斯拉自动驾驶系统未能正确应对前方障碍物这种情况,已经不是第一次发生。早在2016年国内就发生过首起特斯拉自动驾驶致车主死亡事故,当时一辆Model S在自动驾驶状态下追尾前方道路清扫车,造成河北籍车主死亡。

同年美国加利福尼亚州也发生的一起Model S的致死事故,让特斯拉自动驾驶功能的安全性被广泛关注。

最后特斯拉不得不将新车的“Autopilot”中文翻译从“自动驾驶”改为“自动辅助驾驶”,逃避“夸大宣传”的法律责任。

包括后来的Uber自动驾驶致死案,都归罪于系统不能正确应对前方障碍物,包括无法识别或识别后未能作出正确应对措施。

但不管哪种,从这些事故中可以看出,目前的自动驾驶系统确实存在缺陷,在功能尚不能完全确认有效的机制下对公众开放使用,是一种不负责任的表现,特斯拉应该为此买单。

特斯拉自动驾驶事故率远低于人工驾驶?

当然,我们也听到了另一种声音,有人说,特斯拉在规定使用自动驾驶的情况下,事故率远低于人工驾驶,所以不能宽容“人工事故”而“苛求”自动驾驶。

的确,我们不能否认自动驾驶为道路安全做出的贡献,但也不可否认,很多人错用自动驾驶功能。

根据美国自动驾驶划分标准,目前特斯拉自动驾驶并没有达到L3级别,顶多可以“脱手驾驶(Hands Off)”,并不能做到“脱眼驾驶(Eyes Off)”,至于在驾驶中睡觉(Mind Off)这种行为,至少也是L4级别的自动驾驶才可能允许的。

现在那些驾驶特斯拉睡觉的车主,真不知道是心大还是无知?

为什么特斯拉自动驾驶系统允许车主睡觉?

在大部分特斯拉自动驾驶事故中,都有一个共同原因,“车主在打盹,车主在睡觉”,这也是特斯拉一直推脱责任的理由。

我们知道,很多车企在开发自动驾驶系统时都明确强调,当车辆监控到车主无法正确回应时,会强制退出自动驾驶状态,允许车主开着自动驾驶睡觉这种事也只有特斯拉能干,放到奥迪等其他车企身上,估计早就被人口诛笔伐了。

只能说特斯拉这几年一直在打擦边球,靠自动驾驶拉高自己科技企业的光环,为此赚到不少吆喝,谈到自动驾驶大家只先想到的就是特斯拉,这种宣传价值远远高于几次事故带来的声誉损失。

说到底特斯拉确实在拿车主和行人当小白鼠,以便从现实交通中积累自动驾驶经验。而有一些无良车主,在缺乏监管的条件下又缺乏很好的自律性。两边的共同行为对公共交通安全形成了极大的威胁。

可以预料,这种行为不加以约束的话,随着越来越多的特斯拉车辆上路,对行人的威胁将越来越大。

如此看来,真不知道特斯拉汽车应该称为科技座驾还是马路杀手。

本文来源于汽车之家车家号作者,不代表汽车之家的观点立场。

开电动车更容易出事故吗?

特斯拉的自动驾驶大多是l2级自动驾驶。

如果特斯拉的车型中有P,就代表高性能版本,如果型号中有字母D,说明是双电机版本。特斯拉的很多电动车基本都是双电机,这种纯电动汽车的前轴上有一个电机,后轮轴上有一个电机。

目前路上行驶的许多汽车都具有辅助驾驶者的自动或智能功能,这些功能旨在提高安全性并帮助驾驶者做出正确的决定。其实国际上有明确的车辆驾驶分级,采用了SAE International对车辆自动化水平分了6个等级。

自动驾驶技术

其实早在1958年,克莱斯勒帝国就成为第一款拥有辅助驾驶的汽车,引入了高速巡航控制。但到目前,自动驾驶技术仍然不够成熟,像谷歌公司开发的自动驾驶技术,据统计其测试车总共行驶了35万英里,发生了63次偏离道路的事故,频率较高,虽然普通人驾驶汽车也会出现一些状况,但相对于自动驾驶显然要更加安全。

自动驾驶不仅涉及到自身的安全,也涉及到路上其他车辆和路人的安全,因此就目前的技术来看,即使你拥有一台厂家宣称为自动驾驶的车辆,也不能完全方向大胆地在车内睡觉,让车辆自主驾驶。

L2自动驾驶,到底安全吗?

9月5日,四川南充双福街,一辆?特斯拉Model?X失控,撞上多辆车和众多行人,造成2人死亡6人受伤。警方通报,司机刘某经检测排除酒驾、毒驾嫌疑,事故原因还在进一步调查当中。发生车祸5小时后,特斯拉官方微博发表声明,称据对车辆数据的分析显示车辆没有发生故障,会尽全力配合警方的调查工作。

8月12日,浙江温州某小区,一辆特斯拉Model?3高速冲撞停车场的拦截杆,连撞多辆车后,车辆倒翻、受损严重,车主送医抢救7小时,最终脱离危险。该车主发朋友圈称,车辆突然加速,他采取了紧急制动措施,但并未起到任何作用。

8月9日,上海杨思路,一辆特斯拉Model?3突然失控冲入一座加油站内。除撞了撞坏防撞杆等设施外,还撞坏了站内3辆机动车,撞伤一名工作人员和一名车主。肇事车主称,事故发生时,自己正驾车沿着杨思路西向东行驶,为防止撞击前方土方车,试图撞击绿化带来强制减速,但车辆失去控制,径直撞入加油站。

6月16日,江西南昌,一辆特斯拉Model?3行驶过程中,车辆时速突然从50~60km自动提速至127km,车辆失控开出约8公里后,最终撞上土堆翻车起火。驾驶员表示,事故原因是车辆“失控”且刹车失灵导致。

但是特斯拉方面表示,后台调取车辆行驶数据及现场勘查情况:系统检测到事故发生前几分钟及碰撞时,有踩下加速踏板的信号,无踩下制动踏板信号;勘查现场,事故路段未见刹车痕迹等。

——————————

电动车真的更容易出事故吗?

这一系列事故,让许多网友产生质疑,是不是电动车更容易出事故呢?听到这个问题时,笔者的第一个反应是否定的,无论是电动车还是燃油车,制动系统都是安全设计的最高优先级,不通过安全测试根本没法投入市场。

但是笔者又不禁思考起来,为什么电动车会给人造成这样的印象呢?难道电动车的动力结构,导致车辆真的更容易发生事故?还是开电动车容易误操作,容易错把电门当刹车?

因为车内踏板位置不会有监控,只能根据行车电脑的信号来做判断,而车企身为当事人,给出的调查结果也难以令人完全信服,这就陷入一个罗生门的困境。车主认为是车的故障,车企认为车主的误操作。

那么,我们不妨就从『电动车』和『驾驶员』两个角度来讨论一下这个问题。

车辆故障?

首先,我们来看车辆的制动设计。虽然汽车工业已经发展了数百年,各项工艺都在不断引入新技术,但是为了确保可靠性,车辆的制动系统到今天为止仍是以纯机械结构为主,并且都配备了相应的冗余设计。

其中,每个轮的制动力都由单独的油路控制,互不影响,油路的总泵内部通常也有两个腔,分别控制一对车轮(或前后、或对角),尽可能的独立设计,目的就是保证不会同时丢失的四个轮的制动力。

与此同时,刹车使用的液压系统本身也是很可靠的力学结构(工业大型器械都多采用液压),即使出现故障,液压泄露也是需要时间的,不会瞬间失去制动力,而刹车助力系统(如真空泵或电子助力)失效,只要你用力踩踏踏板,液压也可以起到制动效果,虽然没有助力后会弱一点。

具体到车型中,特斯拉采用的是来自博世的iBooster电动助力刹车系统。相比传统的真空助力泵,电动助力刹车可以通过软件定义刹车曲线来调节刹车踏板脚感,同时由于电驱的高效特性,实现了更高的能效,并且整合了动能回收。

根据博世提供的资料显示,这套系统提供了两道在极端情况下的安全失效模式。在第一道模式中有两种极端情况:一是车载电源系统故障不能满负载运行,此时iBooster将以节能模式运行;二是iBooster本身出现了故障,这时候车辆的电子稳定系统将接替刹车系统发挥作用。

上述两种情况下车辆仍能够提供0.4g的减速度(大约为普通车型全力刹车的40%效果),前提是驾驶员大力踩下刹车踏板(约合20千克)。

第二道模式是最极端的情况,即车辆完全断电,这时驾驶员踩下刹车踏板,iBooster将不会提供电子助力,但是仍然能够触发刹车的液压结构,来对车辆四轮产生制动力。

从原理上来说,特斯拉使用的电子助力与传统的真空助力泵系统,区别仅限于刹车助力来源不同,因此在任何情况下,只要大力踩下刹车踏板,这两种系统都会提供相应的制动力令车辆减速。除非制动系统的机械结构发生损坏,否则刹车失灵发生的概率非常低。

用车贴士:假如刹车系统完全失效,我们也不必恐慌,车辆还有一套备份的刹车系统——电子手刹。通过长按电子手刹按键,车辆能够通过启动ABS系统对车辆进行制动直至刹停。

在特斯拉的车主手册中,也说明在紧急情况下通过电子手刹进行刹车的操作方法:长按方向盘后方换挡杆的末端,车辆即可紧急刹车。

再说说优先级的问题。

在车辆的动力结构中,加速和刹车时两套相对独立的系统,无论是燃油车还是电动车,制动系统在车辆指令中都是最高优先级。刹车踏板本身会触发制动系统,与此同时,它的信号传入行车电脑后,车辆会直接切断动力输出,无论你是踩着油门不放还是开启自动驾驶都一样。

在上面提到事故中,车辆没有减速反而继续加速,那么应该是车辆的制动系统和加速系统同时出现了严重的问题。比如多根刹车油管同时断裂,液压结构瞬间失效,并且刹车踏板的传感器也发生了故障,无法发出优先信号给行车电脑,于此同时,加速系统本身也发生了故障,持续为车辆提供动力输出而无法停止。从汽车结构上去分析,只能解释到这里了。

多个小概率事故在同一时间点发生。有可能吗?确实有可能,但是相比之下,另一个种可能性更高。

人为失误?

相信很多人在学车的时候,都有过“错把油门当刹车踩”的经验,这是很多新手会犯的错误,但是有一些老司机,在紧急情况下或者走神的情况下,同样会犯这样的低级错误。

2019年4月23日,西安,一辆灰色比亚迪唐DM,从文兴巷自东向西行驶。监控显示,车辆刚发动就突然加速,期间车速不断加快,车辆多次躲避来车和行人后,在一路口与一对向来车相撞,随后又撞上电动车和摩托车,事故造成1死5伤的惨剧。事故发生后,比亚迪车主发微博称,自己已有11年驾龄,当日车辆启动后突然失控,自己连续踩刹车均没有反应,质疑自己所驾驶的比亚迪唐DM型号车辆存在质量问题,才导致事故发生。

然而比亚迪方面经过技术鉴定,认为车辆并不存在故障,并且根据现场的监控画面,车辆的刹车灯全程没有亮起,而事故发生以后,现场查看车辆的刹车灯是可以正常点亮的。

后续,西安市公安局交通警察支队高新大队出具道路交通事故认定书,认定2019年4月23日因比亚迪驾驶员周某操作不当、超速行驶,未能按照操作规范做到安全驾驶,驶入对向车道是造成事故的直接原因,按照《道路交通安全法》相关规定,周某负事故全部责任。

诸如“错把油门当刹车踩”的事故屡见不鲜,而且犯错的司机往往会下意识地认为是车辆刹车失灵。

那这跟电动车有什么关系呢?

问得好。目前,还没有权威的数据证明“电动车发生交通事故的概率要大于燃油车”这个论点,但是,我们从电动车的几个特性上去看待问题,确实有几个地方需要驾驶员注意。

(1)起步扭矩大,加速响应快

许多电动车一脚下去就能起飞,车主更容易慌神。

燃油车中,发动机让汽油和空气混合点燃,释放热量推动活塞运动,然后再驱动曲轴做旋转从而带动车轮。发动机需要达到一定转速区间,扭矩才会达到峰值,这是一个渐进的过程,并且要通过变速箱改变与发动机衔接的齿轮,缩小齿比使得发动机保持在最大扭矩的转速区间,为车辆加速。除非超跑的大排量双涡轮增压,不然这个过程要花不少时间。

而电动车就不一样了,无论是无论是同步电机还是异步电机,都是通过定子产生的磁场力影响转子的磁场力,从而驱动转子旋转的。其中,磁场跟电流大小成正比,而电流的变化可以非常快,通电瞬间就可以形成最大电流。此时,磁场直接带动转子高速运转,让电动车可以很快达到高转速,即达到扭矩的峰值区间。

同时,电动车都是单速变速箱(或者说只有一个减速器),不像燃油车需要有换挡的过程,反应直接。并且,电机可以在很长的一个转速区间内呈现最大扭矩,而且电机的最高转速通常能够达到万转/分,这就是为什么电动车的加速往往让人产生眩晕感。

那么问题就出来了:同样是一脚油门,燃油车的加速是一个慢慢变快的过程,会给你足够的反应时间,即使踩错了还能即使纠正;但是电动车的响应迅猛,瞬间车速就已被提上来了,踩错踏板的驾驶员非常容易惊慌,如果没回过神来,可能就出事故了。

那这个问题要怎么解决呢,养成温柔起步的习惯咯。

(2)单踏板驾驶习惯

单踏板驾驶的方法要酌情使用。

电动车有一点很特别,它拥有动能回收这个功能,可以将行驶时多余的机械能通过再生制动,回收到电池中。重点是动能回收自带减速力矩,由此也引申出了电动车独有的『单踏板驾驶』模式,譬如日产的e-Pedal——通过电门的踩下与抬起,就可以直接控制车速。

但是,开燃油车的时候有一个很好的习惯,就是在不需要加速的时候,习惯性把脚放在刹车踏板上,以便于在紧急情况下能够及时反应刹车。而电动车的单踏板驾驶方式,就和这个习惯相悖了。

右脚一直放在电门踏板上,虽然可以很轻易的控制车辆的加减速,但是面对紧急情况时,往往会下意识地踩踏板,这个时候脚如果在电门/加速踏板上,反而容易造成事故;而从电门挪到制动踏板的过程,十分考验驾驶员的反应速度,同样也容易出事故。

(3)容易开快车

这一点,来自笔者的亲身经验。开电动车确实要比燃油车更容易超速。

因为电动车的NVH都非常出色,没有发动机和传动结构的噪音,加速又快,明明感觉自己开车很温柔,但是不知不觉时速就80km/h多了;又或者因为车内过于安静而分神。许多车型为了解决这一点,还加入了模拟声浪。

这也是一个需要适应的地方。

(4)过分依赖自动驾驶

最后一个,我们有时过于依赖智能。

因为电动车的科技属性,它的智能配置往往更加丰富,许多车型都搭载了所谓的“智能驾驶辅助系统”,譬如特斯拉的Autopilot就是典型的例子。

这些辅助功能的加入,确实让我们日常开车放松很多,但是有不少的司机会过于依赖它们,似乎认为有了辅助系统就不需要自己开车了。

然而现实是,目前市面上还没有一种“智能驾驶辅助系统”能够彻底脱离人类驾驶员的控制。它们在功能演示时也都会注明『务必请驾驶员保持对道路的注意力』,而不是放松警惕。用习惯了,就过于相信自动驾驶功能,这就是为什么特斯拉的Autopilot容易出事故的原因。

关于自动驾驶引申出的问题,可以点击阅读笔者的另一篇文章《为何自动驾驶事故频发?》详细了解。

自动驾驶确实是未来的技术发展方向,但就目前而言,市面上能够使用的“自动驾驶”或“辅助驾驶”功能都脱离不了驾驶员的操作,大家在驾驶时仍需集中注意力,切勿过分相信某些功能。道路千万条,安全第一条。

总结:电动车更容易出事故?

为什么我们感觉电动车容易出事故?四个字,就是认知偏差。

这其实是部分媒体的责任,新闻报道都是有取向的,什么样的新闻容易吸引更多的流量,那就优先报道什么。燃油车发展了近百年,出什么事都司空见惯,但是新能源车,尤其是电动车,在最近十年才开始在国内普及,而且在推广的路上还存在很多争议,车祸/自燃/自动驾驶都是热点。

举个简单的例子,一提到自燃的例子,大家脑海中是不是都第一时间想到电动车?然而,在中国电动汽车百人会论坛(2020)上,中国工程院院士、北京理工大学教授孙逢春做了“新能源汽车与大数据安全”的报告。报告中提到,新能源汽车国家监测与管理平台的数据显示,新能源汽车的起火事故率为0.9-1.2/万辆,低于燃油车2-4/万辆的水平,新能源车的起火事故是燃油车的二分之一。孙逢春教授同时担任电动车辆国家工程实验室主任,而电动车辆国家工程实验室,负责新能源汽车国家平台的建设和运行工作。他给出的数据还是很有参考力的。

为什么我们的认知和事实会出现偏差呢?因为群众接受的信息其实是经过媒体筛选过的信息,很容易就形成了片面的认识。而电动车这个新鲜玩意儿,尤其是挑战了旧规则的新鲜玩意儿,必然会受到更多的质疑目光,一点一滴都会被拿放大镜来看。偏见和误解就是这么产生的。

——————————

最后总结一下,电动车更容易出事故是个伪命题。但是,因为动力结构的不同,电动机与燃油车的产品特性确实存在一些区别,在驾驶习惯上也需要有一个转变的适应期。排除驾驶水平的原因,人们主要也是在这个适应的过程中发生事故。

但是这样的差别,有必要重考驾照吗?或者说有必要补考电动车的新科目吗?读者们,你们觉得呢。

本文来源于汽车之家车家号作者,不代表汽车之家的观点立场。

又一名车主身亡,别被“自动”驾驶忽悠了

人人都需要自动驾驶,如果你不需要,那是你还没用过,或者没用过好的。

相比车主,政府对此更加渴望,这不光提升运输效率,还会改变整个交通系统的运作方式。不过当下推广自动驾驶的直接目的,是大幅减少事故发生。

即便是入门级的L1自动驾驶技术,诸如制动防抱死系统(ABS),车身电子稳定系统(ESP),都可有效降低事故风险,而近年陆续推出的L2自动驾驶技术,虽然面对复杂路况会有些手足无措,但整体来看,依然对安全行车大有助益。

去年国内车祸近17万起,近5万人丧生,17万人受伤,每天就是600人伤亡。尽快普及自动驾驶,哪怕快一天,都是在拯救生命。

可另一方面,我们也必须对产品有清醒认知,虽然L2具备一定智能,但距离真正的自动驾驶还很遥远。一些新兴车企在宣传上有意无意忽略这一点,甚至假以“自动驾驶”之名来博人眼球,很不负责任。

目前L2高级辅助驾驶系统到底?“智能”到什么程度?

我们来看看丰田TSS主动安全系统:

它的防碰撞预警,可在10-180kph范围内提醒车主有碰撞风险;

主动刹车,可在10-80kph范围内起效,但在系统设定的跟车距离和反应速度下,遭遇行人、自行车时,汽车可自动刹停的理论极速是40kph,遭遇车辆的刹停极速则是60kph,也即车速过快时需要司机介入;

司机急加速和急转弯时,防碰撞系统有可能会关闭,因为它认为车主此刻正在主动避免碰撞,不管是否真的如此;

系统有一个雷达和一个摄像头,都对准车头方向,在上坡时,车头朝天,系统有可能看不到前车,弯道也同理;

系统可能看不到突然变线的车辆,也有几率看不到在大街上“横冲直撞”的摩托车和自行车,这么一提,有些司机可能“莫名兴奋”,但请注意,它也可能看不见迎面而来的路桩或者电线杆。

它的“低能”还不止于此。

比如变道后遭遇前车堵路,系统却继续轰油门;当“前车的前车”急刹,前车变道躲过,跟在最后的L2系统可能来不及刹车;遇到急弯,系统容易把车开上树;转弯过程中,遇到低头族鬼探头,它可能会碾过去,你是不是又兴奋了?

说了这么多,你会觉得这套系统智障。如果和人比,它确实是。目前所有L2自动驾驶都是如此,所以才称之为“高级驾驶辅助”。

但即便如此,也是有和无的区别,这套系统可在30kph之后启用0-180kph全速域自适应巡航,得体的车道保持和跟车动作,可在路况简单的高速路上轻松完成自动驾驶的任务;在突发状况下,你如果反应不及时,系统可以帮助你刹车和回正。

但到了路况复杂的市区,由于上述原因,它反而会增加你的焦虑。

为让系统更智能,特斯拉Autopilot强化了系统的眼睛,配备了8个摄像头、1个毫米波雷达、12个超声波雷达以及NVIDIADrive?PX2计算平台。

▲特斯拉的眼睛

于是它能够做到丰田TSS做不到的事:

比如有可能提前发现“前车的前车”急刹,从而避免碰撞;

遭遇临近车道的汽车突然别车,系统如果检测到另一侧车道无车,会主动避让到另一侧车道继续行驶;

特斯拉宣称Autopilot达到了L2.5,但这样的称谓只是一种营销策略,实际还是L2,因为它依旧需要车主全程监视路况。

特斯拉说自家产品已经具备L4自动驾驶的硬件基础,但目前来看,没有激光雷达,以现有的毫米波雷达和单目摄像装备,能否做好环境感知,是存疑的。

▲Model?3在高速路上自动驾驶连撞11个隔离桶

Autopilot目前能够完成的操作,主要还是防碰撞和自适应巡航,但比丰田TSS多了一个“打灯转向”的功能——巡航时车主连续两次按动转向灯,可以控制汽车自动变道。

但这种操作有不小风险。由于算法的原因,L2自动驾驶系统很难识别远处的静物——系统即便监测到了也当它不存在,这就是为什么当初特斯拉高速巡航时会撞上超车道停车的大货,因为它“看不见”。系统也很难察觉到侧后方高速通过的快车,此时自动变道就很危险。

▲特斯拉自动驾驶撞上大货

试想Autopilot车主冒然打灯变道,而转入车道上刚好有一辆车停靠或者侧后方有快车极速通过,如果车主自己操作,大概率救得回来——回到当前车道即可。但系统操作时很可能察觉不到危险,会继续变道。

这种应用层面的冒进,破坏了特斯拉苦心营造的未来感。

Autopilot可在征得车主同意之后,操控汽车自动变道、下高速路口。这一史无前例的操作让车主一时惊艳。可它常常因为路况复杂而操作失败,于是车主瞬间看透系统的极限——它并不聪明。惊艳消逝的同时,随之而来的是焦虑——它到底何时会失效?

▲特斯拉自动驾驶S弯失控

这样一来,通用就显得靠谱很多。

其Super?Cruise系统同样达到了L2,但没有给予系统自动变道的权限。而且系统会通过方向盘上的摄像头来追踪车主脸部和眼睛,只要你的视线在行进路面上,在自动驾驶时就无需握住方向盘,双手得到解放。当系统发现车主注意力不集中时,会在三级警告之后主动刹停车辆。这就比特斯拉方向盘预警管用得多,因为有些特斯拉车主会在方向盘上悬挂物体,来骗过预警系统去低头玩手机。可以看出通用比特斯拉更谨慎,更注重系统运行的稳定性和安全性。

但这套系统需要一套高精度地图才能完成巡航任务,一旦进入新路线,系统就失效了。

相比之下,奥迪在保守和激进之间做了平衡。

新A8配备的AI?trafficjam?pilot实现了L3级自动驾驶。从这一级别开始,系统不再简单完成单车道自动巡航任务,而是有了一些自主“意识”,比如可在情况允许时自主超车,而且最重要的,车主可以彻底放手了。

系统判定当下可以进入自动驾驶模式,你就能把车完全交给系统来操作。但使用场景非常有限,必须是车道线清晰的高速公路拥堵路况,汽车走走停停,时速不超过60kph,此时才能进入完全的自动驾驶。所以这个功能依旧鸡肋。

为了保证安全,A8配备了更多传感器,有1个激光雷达,12个超声波雷达、4个环视摄像头、1个前视摄像头、4个中距雷达、1个长距雷达和一个前置摄像头。但依然无法保证系统不出错,因为当前算法还不足以预测外界行动,还是需要你时刻保持警觉,随时接管车辆。

主动刹车,车道保持,自适巡航。

这是目前L2自动驾驶能够做好的事,再多就有风险了,而且这些操作,适用场景也有限。

就说车道保持吧,目前依靠摄像头来实现这一操作,如果摄像头遭遇强光,或者车道线不清晰不连贯,就有极大几率误操作。

当冰雪覆盖路面,系统就废了,因为雪在它眼中就是车道线;而十字路口复杂的车道线,更是能把系统摁在地上摩擦。

哪怕车主自己操作,十字路口左转导致事故的几率也是右转的20倍,占总事故约2成,如果交给L2系统,大概率完全懵掉,因为即便它能准确识别路线、交通信号灯这些客观信息,也很难预测其他车主的主观操作。也因此自动驾驶权威谷歌waymo的无人驾驶测试车选择避开左转。

失败几率哪怕是万分之一,实际体验也会不好,后果也不堪设想,更何况L2的失误率远高于万分之一。

我想这就是为什么你没见过哪家传统车企,会在已量产的自动驾驶技术上大吹大擂,称谓也无非“主动安全系统”“高级驾驶辅助”,跟“自动”没多大关系。

“无人驾驶”话题关注度太高,一出问题就上头条。尽管自动驾驶的研发,传统巨头们一直领先,但量产的应用和宣传上更偏保守。

▲2019自动驾驶研发领导者排行

而新企业敢于鼓吹自家的自动驾驶技术,不仅因为这是它们最重要的卖点。更大的底气来自于,它们是初创公司,销量少,情怀用户多,客户相对宽容。比如特斯拉成立16年了,总销量不到100万,而特斯拉用户的评价也如出一辙:“虽然这车有这样那样的毛病,但是以后都会解决的,现在的体验我很满意”。

所以这些新兴企业的风险在可控范围内。

传统巨头们一年销量就上千万,用户极其敏感,一点异响都能把公司整得焦头烂额,安全事故就更是如此了。

巨头们赔不起,这是它们求稳的原因,也是新兴企业的机会。但我们作为消费者,头脑需要保持清醒。

正因为L3及以下的自动驾驶技术还不够智能,不够惊艳,所以业界巨头都瞄准了能够应付绝大部分路况和场景的L4,并陆续放出风声,近期将实现量产。这算不算眼球经济不重要,重要的是,巨头们也纷纷放下以往保守的姿态,这表明L4时代真的即将到来。

文|休不?

图|网络

本文来源于汽车之家车家号作者,不代表汽车之家的观点立场。

特斯拉的“完全自动驾驶”到底靠不靠谱?

作者 | 周继凤

编辑 | 黎明

悲剧再次发生了。

8月14日晚,名为“美一好”的公众号发布讣告称,8月12日下午2时,年仅31岁的创业者、上善若水投资管理公司创始人林文钦(昵称“萌剑客”),驾驶蔚来ES8 汽车 启用自动驾驶功能(NOP领航状态)后,在沈海高速涵江段发生交通事故,不幸逝世。

据《科创板日报》报道,林文钦的好友郑先生称:“蔚来工作人员告诉我们,事发时,这辆蔚来正处于NOP状态。”而蔚来内部人士回应称:“NOP领航辅助不是自动驾驶,后续有调查结果会向外界同步信息。”

事件发生后,网络上掀起了有关自动驾驶技术的讨论。不少网友指出,车企为了商业利益, 在宣传时将“辅助”驾驶与“自动”驾驶的概念进行混淆 ,让用户过于信任和依赖这套系统,导致驾驶员很容易在开车时掉以轻心从而酿成惨剧。在蔚来这起事故之前,已经发生不少类似的安全事故。

几乎同一时间,美国国家公路交通安全管理局(NHTSA)宣布,由于发生多起特斯拉 汽车 与停放的紧急车辆相撞的事故,该局已经开始对特斯拉的Autopilot自动辅助驾驶系统展开正式调查。

对于一名 汽车 用户而言,“辅助”驾驶与“自动”驾驶的概念功能,本应该是最基本的认知常识。可悲的是,自动驾驶行业里的玩家长期以来都在夸大宣传,忽悠用户。

自动驾驶行业发展了这么多年,这一次,安全问题以及“过度宣传”问题,终于被摆到台面上来了——以生命为代价。

不止是这次悲剧的主人公, 在全行业的鼓吹下,大量的消费者正在接受甚至依赖自动辅助驾驶功能

卢米是一名特斯拉车主,他平日里跑高速都会选择开启自动辅助驾驶,在他看来,自动辅助驾驶的体验很好。

车主张鹭也发现了自动辅助驾驶的好处。“平日里开车,我只用手握方向盘,刹车和油门就不用踩了,系统会自动跟车,自动转弯,非常方便。”甚至有几次,张鹭感觉自动驾驶救了他的命。他回忆,特斯拉的自动驾驶有一些主动预警措施,比如在车道偏离、接近追尾时,关键时刻会给他提醒。

但是,已经逐渐习惯并且依赖这一套系统的消费者们,其实并不清楚自己开启的是怎样一套系统,以及这套系统是否存在风险。

很多时候,他们依据名字来判断。

目前,特斯拉针对自动驾驶推出了不同的软件包,其中,基础标配的功能被称作基础辅助驾驶功能(即AP),更高阶的软件包FSD,被称为完全自动驾驶。 由于特斯拉直接把更高阶的自动驾驶软件包取名为完全自动驾驶,不少车主直接把特斯拉FSD等同于自动驾驶技术

一名特斯拉车主坦言:“我其实分不清具体什么是自动驾驶,什么是自动辅助驾驶。但是有朋友推荐说,可以开启一下AP,效果挺好,我就跟着一起用了起来。”

人们也不知道,在所谓的自动辅助驾驶模式下,究竟什么可做什么不可做。

经朋友推荐开启自动辅助驾驶功能的特斯拉车主王盛,如今只要是跑通勤上高速或者上环线都会开启自动驾驶。他有时候会分心处理一些公务,有时候还会接接电话。

不止是国内,美国安全保险研究所在2020年的一项调查显示,有48%的司机错误认为,只要开启了特斯拉的“Autopilot”功能,不掌控方向盘也是安全的。

一些人太信任 自动辅助驾驶系统,以为开车时完全可以解放双手双脚

不少车主在网络上分享了抖机灵的做法,比如把矿泉水瓶、橘子绑在方向盘上迷惑系统,让系统误认为是驾驶员的手放在方向盘上。8月份,甚至有车主上传了一段自己使用辅助驾驶系统躺着开理想ONE的视频,一度引发全网热议。

在现代 社会 ,信任能更快地达成交易,但对于自动辅助驾驶来说, 过度信任,有时候却会送命 。早在蔚来这起致命事故发生之前,因为驾驶员过于信任自动辅助驾驶系统,已经酿成了多起悲剧。

2016年,美国佛州的一辆特斯拉Model S在Autopilot状态下与正在转弯的白色半挂卡车发生碰撞,特斯拉驾驶员不幸身亡;2019年,一辆特斯拉Model 3在Autopilot状态下以110公里/小时的时速径直撞向了一辆正在缓慢横穿马路的白色拖挂卡车……

美国国家公路交通安全管理局(NHTSA)在调查后发现,自2018年1月以来,特斯拉自动驾驶系统已导致11起事故,致17人受伤,1人死亡。且这11起事故中有4起发生在今年。

自动驾驶的诞生源自这样一个逻辑,人类驾驶员会犯很多错误,而自动驾驶 汽车 犯错的概率相对于人类要小很多,会让驾驶变得更加安全。 为什么原本是为了让人类驾驶更安全的系统,如今成为了马路杀手?

这其实不仅仅是一个技术问题。

我们从自动驾驶的分级说起。

当下车企所宣传的“无人驾驶”、“自动驾驶”,其实都是L2级别的自动辅助驾驶。

根据SAE(美国 汽车 工程师学会)的分类,自动驾驶可以分为L0-L5级六个阶段。其中L0代表无自动辅助功能;L1-L2为驾驶辅助系统,驾驶员是车辆操作的主体;L3-L4为有条件的自动驾驶系统;只有到了L5才是真正的无人驾驶。

这其中最重要的分界线是L2级别。

L2及以下级别是自动驾驶的初级水平,这个区间的自动驾驶技术不具备“全自动驾驶能力”,是始终需要人类监管的驾驶辅助系统——事故主要责任人始终是人类驾驶员。

按照常规,一名驾驶员理应知道自己购买的车归属于什么自动驾驶级别。如果是在L2级自动辅助驾驶系统中,作为完全责任主体的驾驶员,则更应该明确认识到L2级自动辅助驾驶系统的风险。

但很多车企都在不遗余力地模糊L2这一界限,夸大自己的自动驾驶技术。

很长一段时间,特斯拉将Autopilot(高级辅助驾驶系统),当成“自动驾驶”对外宣传,直到发生多次安全事故,才不得不改口。而即便现在,特斯拉最高阶的软件包FSD,仍被称为完全自动驾驶。

至于国内,蔚来副总裁沈斐曾在微博中表示,车主们使用其自动辅助驾驶功能时可以“放心地边吃东西边开车”(相关内容现已删除)。

车企很清楚,如果直接表明自己是L3、L4级别的自动驾驶,那么一旦发生事故,责任方就会归于自己。于是,他们在宣传时打一些擦边球。

比如,4月16日,威马正式亮相了第三款量产车型W6。在官方宣传中,威马反复强调W6是“20万级国内首款无人驾驶量产车型”、“国内首款L4级别无人驾驶量产车”。

但实际上,威马W6仅仅在停车这个场景上,实现了L4级别无人驾驶。但很多消费者误以为“威马的所有出行场景都实现了L4级别无人驾驶”,“威马的W6是唯一实现了L4级别无人驾驶的量产车。”

这些夸大宣传提高了企业的曝光度,但在巨大的信息不对称下,消费者很有可被误导,误以为企业已经推出全自动驾驶技术。

著名自动驾驶公司Waymo曾放弃将自动驾驶称为“self driving”,更名为“autonomous driving”。Waymo的逻辑是:“ 精确的语言很重要,可以挽救生命 。”

反过来,我们可以套用一下Waymo的逻辑——车企们正在用模糊的语言把越来越多的人推向悬崖。

8月16日晚间,理想 汽车 创始人李想在朋友圈发文称,L2 、L3一类的专业话术,用户容易混淆且听不懂,建议统一名称为L2=辅助驾驶;L3=高级辅助驾驶;L4=自动驾驶;L5=无人驾驶,一个多余的中文字也不要有。

“最大化的控制期望值,避免自动和辅助出现在同一个状态下,辅助驾驶就是人的责任,出现自动两个字就是车的责任。”他表示。

再说回来,即便是L2级别的辅助驾驶,也不是100%安全。在当下,L2级别的自动驾驶辅助系统主要配备毫米波雷达以及视觉识别(摄像头),从而感知环境。其中,毫米波雷达对于前方完全静止的物体,有一定几率无法识别。而视觉识别是按照深度学习的逻辑来运行的,也永远无法达到100%的准确率。

也就是说,面对复杂的路况,自动辅助驾驶的识别无法做到100%精准。

对于驾驶员来说,在使用自动辅助驾驶功能时,永远需要保持警惕以备不时之需。作为系统的提供方,车企有责任有义务将自动辅助驾驶的功能及使用范围明确,并确保教会用户正确的操作方法。

但就目前来看,在风险提醒上,各大车企做得相当敷衍。有媒体指出,蔚来NOP在去年10月更新上线,自动辅助驾驶功能推出或升级时,蔚来对车主的线上安全提醒都是非强制性的。

蔚来的这种行为就相当于,我把说明书摆在这儿,你愿不愿意看或者看不看得懂,都和我没关系。

很长一段时间,以上提到的这些潜在风险,都被自动驾驶行业的光环掩盖了。

近些年,自动驾驶行业蓬勃兴盛。

资本与行业玩家合力打造了一个看上去颇具颠覆性的出行故事,这个出行梦的核心就是自动驾驶技术。中国智能网联 汽车 创新中心预测,2020年至2025年,可以实现部分自动化或有条件自动化的智能网联 汽车 销量,占当年 汽车 总销量的比例将超过50%。

以特斯拉为代表的 汽车 制造商,加速了这一进程。

2015年,特斯拉第一次通过OTA的方式为Model S推送了Autopilot辅助驾驶系统。特斯拉车主们一觉醒来,发现自己的车突然获得了一些自动辅助驾驶功能,比如,在高速路上特斯拉可以自动保持车道、自动根据路况加减速等等。

靠着特斯拉的带动,越来越多安装着自动驾驶辅助系统的智能车上路。如今,一辆电动车如果没有搭载自动辅助驾驶,似乎不能够称之为智能车。

投资人开始意识到,卖车卖硬件或许不是最重要的,自动驾驶等软件服务才是最具想象力的环节。

而跨界造车也让自动驾驶上下游产业链火爆了起来。仅今年6月的第一周,就有3家自动驾驶公司相继宣布获得融资,总计融资超过32亿元。

整个市场变得大胆且激进。马斯克一度放话:“我们已经非常接近L5自动驾驶了。”为了搏出位、吸引投资人的目光,不少车企对外宣称已经实现L3、L4级别自动驾驶。

一位业内人士曾指出,已经量产的车企,很多完全没有自研能力,只能转头选择向博世、Mobileye等厂商采购成熟的自动驾驶方案。但这不影响车企们将之包装成自己的研发能力。

7月初的世界人工智能大会上,原华为智能驾驶产品线总裁兼首席架构师苏菁曾面对特斯拉的高事故率,痛斥其为“”。

一位用户在看完最近的报道后感叹:自动驾驶技术走向成熟的道路也是一段无数用户亲身试错的血泪史。

一位业内人士指出:“为了保证安全,技术层面以外,法律法规也需要适配自动驾驶的边界。”

但在操作层面,还有更多细微的问题需要解决。

国外有可参考的案例。2020年,美国高速公路安全保险协会IIHS发布了一系列ADAS功能的指导方针。其中,IIHS建议,自动化系统能够提升安全的关键就是确保司机需要始终参与车辆的操作。

当下,车企们防止司机分神的系统仅有两类。一是像特斯拉和一些主流车企采用的方向盘压力检测,如果系统检测到司机的双手离开方向盘达到一定时长后,便会分段执行警告、强制解除辅助驾驶状态、刹车等动作。另一种是安装面向驾驶员的摄像头来监控驾驶员的面部是否一直面向道路。

IIHS指出,这些都不是万无一失的方法。该机构建议,还应该加入检测方向盘是否被手动调整,调整了多少角度以及驾驶员注意力监控。这或许是一些更为实际的指导方法。

*题图及文中部分配图来源于Unspalsh。

撰文?/?朱?琳

编辑?/?温?莎

设计?/?杜?凯

来源?/?Forbes,作者:Brad?Templeton

10月20日,特斯拉发布了一个限量的测试版,面向其部分早期用户。该测试版被埃隆?马斯克(Elon?Musk)称为“功能完整的完全自动驾驶”。该公司还宣布,将目前出售给车主的“FSD?in?the?future”套装的价格上调2000美元(现价10000美元),以便他们在准备就绪时可以使用该软件。

该软件包给许多用户留下了深刻印象。一些人在Youtube上发布了该系统在城市街道上运行的视频。尽管有这个名字,但“完全”自动驾驶既不是自动驾驶,也不是业内大多数人所说的完全自动驾驶。更准确的说法是,它是在城市街道上运行的特斯拉“Autopilot”。

像Autopilot一样,它需要驾驶员不间断的监控,也确实会发生错误,需要驾驶员的控制以避免事故的发生。它可以处理各种各样的城市街道,但不能应对车道或停车场,所以人类司机在旅程的起点和终点都要开车。之前的Autopilot只操作高速公路、乡村公路和部分城市快速路,不操作标志、交通信号灯等基本要素。

该车辆的功能比我在那工作时的Google?Chauffeur(现在的Waymo)在2010年展示的稍好,尽管重要的是它仅使用摄像头和最小限度的地图即可完成工作,而Chauffeur需要使用详细的地图和激光雷达,并尽量减少使用摄像头。

这十年间,神经网络计算机视觉的能力得到了突飞猛进的发展。特斯拉做出了很大的努力——仅在主要参与者中有效——避免了激光雷达,并严重依赖于摄像头(还有雷达,这是每个人都在使用的)。

在线视频显示,这些车辆在各种街道和十字路口行驶。这包括没有标志的小街道,大的多车道街道,合理复杂的十字路口,包括无保护的转弯等等。这就是特斯拉所谓的“功能完整”——它至少在所有典型的路线上做了一些事情。

虽然我们不能从一小部分视频中得出确切的结论,但可能会有施工和一些等级的道路的问题,我们看到了白天和晚上,但还没有看到恶劣天气下的视频。

这些视频中,有一些必要的干预——人类司机必须抓住方向盘,控制局面,以避免极有可能发生的事故。虽然没有关于需要这些的频率的统计数据,但这种干预似乎相当频繁。这是需要持续人工监督的系统规范,也是他们需要这种监督的原因。

所有的完全自动驾驶汽车项目都需要一个或两个“安全司机”在方向盘后面,他们也需要做这样的干预,一开始很频繁,随着时间的推移越来越少。

直到最近,Waymo和现在的Nuro才部署了没有监管司机的车辆。Cruise最近获得了这样做的许可,但还没有实施,他们声称可能会在今年年底实施。亚马逊的Zoox也有这样的许可证。

根据特斯拉的视频和声称,在埃隆?马斯克的通勤中,他通常很少干预驾驶,有时根本没有干预,但这“似乎在大多数情况下都是有效的”。在现实中,我们要计算需要干预的频率。

据报道,特斯拉的Beta测试只对有较高安全记录的司机进行,但没有透露测试是如何进行的,这给我们带来了一些大问题:

这种干预有多频繁,情况有多严重?

特斯拉在没有经过培训和合作伙伴的情况下,能有效地让客户扮演自动驾驶汽车安全司机的角色吗?这与优步在发生致命事故时的做法有何不同?

特斯拉决定不使用激光雷达和详细地图,这对他们系统的质量有什么影响?

驾驶员可以安全地使用它吗?通过测试又能得到什么呢?

这合法吗?

干预的频率有多高?

人们不能从这些视频中辨别,但我们可以比较一下人类发生事故的频率。

有时候,干预会在不需要的时候发生,所以真正需要衡量的是“必要的”干预,即没有干预就会发生不好的事情。许多团队使用模拟器来模拟在没有干预的情况下会发生什么。“坏事”可以指严重的事故,或者只是指明显的驾驶失误,比如短暂地转向另一条车道,即使你很幸运,车道上没有车。

人类每10万英里就遭遇一次事故,普通驾驶大约需要8-10年的时间。保险公司每25万英里(25年)就会遇到一次,警察每50万英里(40-50年)就会遇到一次。

幸运的是,死亡非常罕见——人类驾驶每8000年发生一次,高速公路上每2万年发生一次。这对任何一个司机来说都是罕见的,我们开得太多,所以我们才会遇到那么多。

就其本身而言,整天驾驶无需干预似乎非常令人印象深刻,尤其是对那些初入这一领域的人来说,但这距离真正实现完全自动驾驶,而不是监控驾驶员辅助的目标还有很长的路要走。

这种测试方式可以吗?

如果没有受过良好训练的安全驾驶员,并且每辆车配备两名驾驶员,大多数自动驾驶团队是不会测试这种水平的系统的。

优步对其安全司机的培训很差,该公司承认,发生事故时,每辆车只安排一名司机是错误的。这起事故的主要责任是安全司机无视所有规则,用手机看电视而不是工作,但我们知道其他特斯拉车主也会做类似的事情。

另一方面,Autopilot表明,对于遵循良好程序的驾驶员来说,安全使用Autopilot是可能的。

统计数据显示,在高速公路上使用Autopilot的特斯拉司机不如不使用的司机安全,但安全程度只是略有下降。(特斯拉公布了误导性的数据,声称它们更安全。)这种较低的安全水平可能可以解释为这样一个事实:一些司机正确地使用了它,是安全的,而另一些司机则没有,从而降低了平均水平。

我的经验是,使用它的一个好方法是在你的头脑中一直保持“影子驾驶”,即脑中想着移动你的手但不施加压力,当汽车转动方向盘时让你的手随着方向盘移动。用这种方法,如果方向盘不像你想要的那样移动,你可以快速地从轻力转变为实力,推动方向盘到它应该去的地方。

但并不是所有的司机都这么做,有些人不这么做,甚至试图打破特斯拉的警告。许多人认为,车内的摄像头监控着司机的视线,以确保注意力得到了关注。其他竞争系统也这样做。特斯拉对此进行过实验,但迄今为止拒绝采取此类对策。

当然,让细心的司机测试这个软件对特斯拉来说是非常有价值的。这就是为什么其他公司花费数百万美元来支付安全驾驶员在几个州进行试车的原因。

马路中央也有拐角案例

所有这些测试的目的都是为了解决部署这些汽车的难题。在没有持续干预的情况下,在普通道路上驾驶相对“容易”(但要做到特斯拉所做的,即在没有激光雷达和地图的城市街道上驾驶,就比较困难)。

即使你能处理99.9%的情况,你也只是达到目标的一小部分。你需要找到所有那些不寻常和罕见的事件,人们称之为“拐角案例”。但这些不只是发生在角落里,找到它们中的大多数是一个非常漫长和困难的项目。Waymo的顶尖团队耗费了十年时间来做这件事。没有人真正做到过。

在网络视频中,司机们所表达的喜悦之情,是那些外行人的心声,他们以为得到99.9%的答案就能解决99.9%的问题。但它解决的问题还不到1%的十分之一。

驾驶辅助工具中,通过人工监视,你可以让人工监视人员处理剩下的问题,作为人类一般的问题解决者,我们通常可以这样做。

也就是说,特斯拉有一个很棒的测试工具。司机们不再花钱找人来测试车辆,而是为这样做的特权付费。这让特斯拉比其他任何公司都能以更低的成本更快地积累里程,他们自然想要利用这一点。

这对特斯拉来说是个好消息,因为当我说他们已经走了千分之一的路时,你可能认为这意味着他们还有几千年的工作要做。好消息是,由于团队随着时间的推移越来越快,他们做后期的工作比早期的工作更快。

Waymo可能花了2年时间才达到1/1000,但再过10年,他们就差不多达到目标了。这是因为随着时间的推移,他们都壮大了自己的团队和测试队伍,也接触到了各种各样的新技术,比如神经网络、高级模拟等等。

特斯拉一直在这么做,而且还制造自己的处理器,几乎和谷歌自己定制的处理器一样好。摩尔定律还没有消亡,它不断提供更多的工具来加快其余工作的进行。但目前特斯拉还有很长的路要走。

地图和激光雷达

到目前为止,我们所看到的并不能告诉我们很多关于特斯拉避开激光雷达的争议选择和相关问题。

特斯拉希望利用摄像头和神经网络创建虚拟激光雷达,告诉他们摄像头看到的视觉目标有多远。这些视频向我们展示了他们对汽车和其他障碍物闪烁的感知,这在这些视觉系统中很常见,但也显示出他们还没有完全实现。

我们进一步了解了他们不使用详细地图的决定。人们试图在没有地图的情况下开车,以避免地图成本,并能够立即处理整条道路而无需绘制地图。地图可为你提供更多数据(即使它们错了并且道路已经改变),可以帮助你更安全。

不管你对地图的成本有什么看法,你很快就会想到没有它们的情况,而不是你想在第一批上路的汽车上做的事情。我们可以在特斯拉“FSD”的视频中清楚地看到这一点,该视频向左转弯并带有分隔线。

在这个视频中,你看到车辆左转。在几乎恰好一分钟的时间内,汽车针对要驶入的道路计算出了一个错误的地图,从而将道路分隔线放置在错误的位置。它试图驶进迎面而来的车流中,但司机接管了它,把车开进了正确的车道。

一辆没有地图的汽车在驾驶时,它的地图就会自动生成。它必须弄清楚所有的路缘、车道、标志和交通控制系统在哪里,以及每条车道的规则,然后从中选择驶入哪条车道以及如何驶入。

一辆有地图的汽车依赖于之前通过交叉路口的经验,以及对数据理解的人类质量保证。它仍然需要了解现场情况,特别是道路发生变化的任何地区,当然还要了解道路上所有移动的东西,但首先要做的是让路面更安全。

特斯拉自然会努力使自己的汽车更好地处理这样的路口,而不会再次犯同样的错误。而且,他们的车队意味着他们将迅速获得有关此方面的报告,并在进行必须进行的逐步改进方面具有优势。

但是,尚无法从摄像头图像完全了解道路的布局,这就是为什么大多数团队都觉得拥有包含所有细节的地图可以使它们更安全,功能更强大,即使制作和维护地图要花钱,并且它最初限制了可提供更高安全性的驾驶区域。

这是合法的吗?

其中一些测试人员在加州。这让人想起了早期的一个事件,当时由安东尼·莱万多夫斯基(Anthony?Levandowski)领导的优步自动驾驶团队试图在加州测试优步的车辆。加州法律要求测试自动驾驶汽车必须获得许可。

优步并不想获得许可,尽管莱万多夫斯基参与了起草这部法律的谈判。优步声称,由于法律豁免了“司机辅助”系统需要许可,优步并不需要许可,因为他们在任何测试车辆上都有一名安全司机,因此这就是司机辅助。

汽车制造商一直在推动在法律中加入驾驶员协助例外条款,因为他们不希望他们销售的辅助系统突然需要许可。

加州车管所说“不行”。毕竟,既然每个人都使用安全驾驶员,那么法律就毫无意义,任何汽车都不需要许可证。

他们的观点是,如果你真的试图制造一辆自动驾驶汽车,你需要许可证,即使你有一个人作为正式司机监控它。他们告诉优步,他们将吊销所有优步车辆的牌照,除非他们排队等候。

这使特斯拉处于一种不寻常的状况。特斯拉的高速公路版Autopilot是驾驶员的辅助工具,不需要许可证。但是他们将这个Beta测试版本称为“完全自动驾驶”。

正如我在上文中所断言的那样,这并不是像大多数行业内部人士所说的那样是真正的自动驾驶或完全自动驾驶,但是只要特斯拉说这是制造自动驾驶汽车的努力,许可证法似乎可能适用于他们,并关闭该州以及可能具有类似规则的其他州的Beta版程序。

本文来源于汽车之家车家号作者,不代表汽车之家的观点立场。