亚洲太阳sungame(中国)BinG百科

智能网联创新用户体验

发布人:系统管理员发布时间:2019/12/06

6、(1)华为技术有限公司职能座舱规划总监 潘颖欣《智能网联创新用户体验》.jpg

各位领导、嘉宾大家中午好!下面我给大家分享这个题目是智能网联创新用户体验,这个题目基本上已经点题,如果要创造一个颠覆性的汽车的用户体验,智能化和网联化是一个必由之路,智能化就是我们大家熟悉的AI,就是人工智能,网联化就是把汽车联入互联网,会获得更好的服务。

整个材料分两个部分第一个就是汽车的用户体验的现状分析,针对这样的一个现状我们如何去改变?

大家都已经形成了一个共识,汽车的整个发展其实是走向一个相对集中的意义架构,总的来说我们现在把汽车分成两个部分,一个是CDC就是智能座舱,另外一个就是MDC这是自动驾驶的核心领域。作为一个形象的比喻,CDC和MDC好比是汽车的两个大脑,CDC是以人为中心,是以人为中心,而MDC是以车为中心,就是自动驾驶是负责把人从A送到B,安全送达B,可以从L1到L5的自动驾驶状态,是以车中心。

我今天主要讲CDC,这个是域是以人为中心,既然以人为中心,那么它通过感知人、车、路三个方面的数据,然后综合做一个决策,然后做这个控制,使人的整个驾乘的体验,会更好更安全。

智能座舱的发展大家回顾一下非常类似于我们现在的发展非常好的一个产业,就是移动互联网,其实在座的如果是35岁以上的人应该是经历了这个照片里的移动互联网发展的过程,其实2000年左右那时候大家拿的手机可能都是2G手机,主要就是发短信和语音,到了2007年如果回想起来大家都清楚iPhone1在这年推出,iPhone引领了整个智能终端的颠覆式的用户体验,第一个就是触屏,第二个把所有关于移动互联网在手机上的应用APP化,并且可以从商城上直接下载,就这两点足以颠覆了整个手机的由功能机向智能手机的转变。

第一个就是APP的数量从2007年一直到2019年整个活跃在移动互联网生态上的APP数量,增加了7万倍。也就是现在的不管是IOS生态还是安卓生态,整个APP的应用都是百万级的,尤其是活跃在安卓系统上的开发者团队,大家可以采到数量多少吗?包括个人用户的开发者大概有千万级,就是千万级的开发者的生态支持了百万级的应用。

支撑手机的智能化,另外一个重要的标志就是芯片,芯片的整个主屏的提升120倍,从以前的功能机只有一个CPU的内核,发展到今年第12代的内核,有CPU、GPU、NPU,从这个功能上实际上分内核了,这是整个移动互联网在过去20年的发展,我想说的是非常类似于我们将来汽车整个用户体验所走过的的话,有大概率会走这样的发展道路。

2000年汽车的智能座舱就是模拟的座舱,所有的按键包括旋钮都是击键式的,随着技术的发展出现了液晶屏和语音交互等等,朝着数字化和智能化的方向演进,基于现在行业整体的现状的话我们做出了一个判断。

截止到今年为止,我们觉得整个座舱的发展还处于一个从功能座舱向智能座舱转变的萌芽状态,其实现在路上跑的汽车尽管也配了很多的屏幕、液晶屏也有语音交互,总的来说不是一个严格意义上的智能座舱。

大家平时开车有这样的开车,看着前面司机的导航很大的屏幕不用,还是把手机打开,为什么?因为用户体验不好,总的来说现在座舱的发展还不尽如人意,怎么样改变这个现状还是需要大家思考的,我现在给不出来什么是智能座舱?标准是什么?我也给不出来标准,需要大家一起探索需要业界制定出这样标准,像未来的智能终端一样。

这是一些公司做的近三年的用户调查,也搜集了很多的问题,痛点问题有几百个,找出一些规律性的问题,就是核心痛点。我们需要我的车提升用户体验,把用户体验排在第一位,因为人是操作方向盘,手机上可以触屏,但是在车上不可以。

另外就是手机跟车机的互联,就是大家俗称的投屏,人现在的生活习惯离不开手机了,我们平常使用的场景到车上需要有一个无缝衔接,手机上的功能音乐等等的服务功能到车上有一个延伸。

另外一个就是我的智能座舱需要提供服务,因为车的定义是什么?一定要安全。如果你的智能座舱能够给我的驾驶提供安全的行车体验这个毫无疑问是非常重要的。这个是三类,语音交互、手机、车机互联,还有安全的行车体验。

总的来看,从现在的所谓的功能舱和智能舱的萌芽转化来看,核心痛点分三个方面。第一个就是危险无判断,我即将可能要产生风险的时候没有任何的提示;第二个就是服务不主动,车就是冷冰冰的机器,没有任何的交互,不懂你;第三个就是交互体验差,我说了一句语音,它不理我或者我说了一个叫为复杂的语意的环境它不理解什么意思,可能交互时间长了你就不去用了。

另外就是随着这个车的使用和情景模式的转换或者增加出现一些卡顿的情况等等,另外一个从开发者的角度来看,我去坐这个车机,从厂家拿这个开发板做这个东西,我首先看这个车机是什么样的操作系统,我把这个操作系统拿过来以后,你在车机上有哪些生态可以移植?生态很重要,就意味这服务,我可以得到什么服务。

所以说将来的车机如果走向类似于智能终端的路,基于操作系统的生态是很重要的,我不敢说将来智能座舱的生态,能够达到安卓千万级的开发量和百万级的APP,我不敢这样说,就目前发展态势来看,可能没有那么广,现在APP的应用将来如果在汽车上能够成为一种智能网联汽车的发展阶段的话,那么应用的类型一定会是爆发式的增长。

如何来解决这些问题?然后创造一个良好的用户体验?

我简单普及一下智能座舱的情景智能的概念,就是说为什么要讲情景智能?大家用手机划到负一屏的时候,这四个字大家应该是比较熟悉的,大概简单说一下。因为车里和车外有很多传感器,如果你是自动驾驶的话,车周围有很多雷达、红外包括摄像头,车内也有摄像头、无线、麦克风、蓝牙等等,传感器是感知数据的,就座舱的角度来看有三个方面,第一个人是的数据,包括驾驶员、座舱后面坐的人甚至包括你的副驾。

另外就是环境数据,有道路的数据、天气的数据等等,会结合时间包括车辆的使用的状态、电池数据也有,BCM的信息也可以传过来等等。融合了数据以后,那么结合你所处的驾驶的场景,因为AI的东西需要一定的知识背景的,不了解的情况下可以通过语音获取一些相关的背景知识,结合刚才的情景会激活应对于你当时所处的场景的服务,这就是简单来说情景智能的概念。

我简单举一个例子匹配刚才说的情景智能的场景,就是我分了三段开车前、行驶中、停车后都有哪些。比如说开车有的车可能有B柱,我现在不用这个,B柱相当于人脸识别。上车了以后我跟车机来一轮语音对话,还辅以一些手势开始开车前假想的情况。包括收拾识别、人脸识别还有语音交互,其实都要消耗CDC域里的芯片语言的能力叫算力。

包括两个方面,比如说人脸、视觉识别既有GPO的能力,也有NPO的能力,简单来说比如说人脸的动作大约消耗0.05T的TFLOS。多轮语音就是0.5T,开车这样一个动作大概消耗1.45个T,在行驶过程中,你可能继续跟这个车机互动,这时候还是会产生多轮的语音对话。

还有一个重要的功能就是在行驶过程中,就是驾驶员监控系统,第一个就叫分神检测,第二个叫疲劳检测,分神很好理解,开车的时候注意力不集中,低头看手机,这时候的DMS系统检测到你分神,会有一个综合的算法,也时候发出一些友善的提示比如说注意你的驾驶姿态容易出事等等。

第二个就是疲劳,疲劳比分神更难了,要结合你的脸部特征,甚至你的眼神,要最终你的视线的眼神,摄像头会精准感知到。甚至酒驾、毒驾都可以检测到对于你的整个眼神,包括你的大数据分析有非常高的要求,对算力的要求更加高。单单是支持分神和疲劳检测大概是3.57T。停车后比如说你的车临时停在一个路边了,旁边有一个指示牌此处禁止停车或者停半小时等等,有时候驾驶员不关注,这时候车外的摄像头或者观感器已经把这种模式识别出来了,然后进行友好的语音提示,请注意你的停车时间进入半小时等等,这些都是情景智能的服务,如果这些东西做好了的话,驾车的安全体验更好。

比如说路边停车安全提示,路边临停的时候我立马做一个动作就是拉车门下去,最危险的就是比如说后面来一个行人或者骑电动车的,开车门的同时会撞上,比如说有后方的摄像头把这样危险的场景传给座舱,座舱会发出友善的提示,或者发出一个控制指令锁住车门,但是提醒没有任何问题的,注意车后面有一个电动车开过来了,请先不要开车门,都可以提升你的安全驾驶体验的,所有的东西都是基于你整个座舱的芯片算力。

因为情景智能的东西太多了,甚至可以由100种,这张图我想给大家传递一个概念,这辆车从你买到变成二手车,大概是5.5-6年,汽车的使用其实远比我们智能终端的时间长手机我们可能换频繁一点,两年就换了,但是汽车不会的,至少伴随5到6年。其实整个情景是智能演进的,在垂直和水平两个方面,第一个就是水平面的算力增长,随着情景智能的功能不断叠加,初期只有三种情景智能的交互,随着我的使用年限增长,到最后有分神、临停、路况引导、甚至毒驾、酒驾甚至再往后上ARHUD等等,一个车的使用的周期内,算力的要求非常高。U

总的来说总结刚才说的,结合智能座舱感知就是四个方面,第一个就是安全,智能护驾,第二个就是座舱娱乐和生活的方面,就是娱乐和生活,第三个是智能交互,在座舱里把直觉系统和生产音效做好了以后,随着驾驶的普及,智能座舱会不会成为移动办公的舱室?是可以开办公视频会议的地方。第四就是车辆服务。

下面我简单介绍一下刚才说的这四个方面,第一个就是感知与决策控制系统里的智能交互。分两个方面,第一个就是语音交互,其实现界的交互就是语音识别已经做的很不错了,国内科大迅飞汉语为基础的语音识别已经做的非常不错了,这个人说话带一点口音的普通话也可以识别,国际上就是米昂斯,他的英语包括其他的小语种做的不错,语音识别是比较不错了。              

但是语音识别就是说一句话翻译成文字,翻译的过程没有问题,但是翻译出来以后机器还是不理解,叫语意理解,语意理解非常难。比如说人的说话经常会变,比如说“小王,走起”,“走起”是什么意思?他不知道,人工智能最大的特点就是要不断学习。

另外一方面就是手势交互和人脸识别,要拿到良好的用户体验,他的识别和准确率有什么样的要求。

另外一个就是智能护驾,第一个就是疲劳、分神。第三个就是身体状态检测,比如说现在的网约车,网约车司机其实是一个劳动强度非常大的行业,因为经常是开十几个小时以上的车,这个群体的身体状态是非常重要的。这个时候我们想了一个例子,现在很多的运动手表包括苹果、华为,苹果的心率检测已经获得美国FDA认证了,检测心率是非常准的,这时候是不是可以结合手表的心率检测做适当的提醒,当驾驶员的驾车身体状态出现异常的时候,出现提醒甚至拨叫紧急电话等等。

另外举一个例子就是360环视,比如说倒车,行驶过程中观察行车和路况等等。这个也是跟安全相关涉及到座舱另外一个就是CMS,就是座舱系统,其实欧洲去年已经立法,座舱不但前面有一个监控摄像头,但是看不清楚,包括汽车的后舱也要有摄像头,国内没有看到,这块主要用来监测舱内的遗留物。我们经常看到报道粗心的家长把小孩子落在车上,高温不透气导致一些悲剧。

这时候当驾驶员离开以后,座舱有一个“哨兵模式”,比如说每隔5分钟扫描一下进行活体检测,比如说看看是不是有宠物或者儿童遗留在座舱里,这个功能做好了可以避免很多悲剧,这个就是办公系统,这是需要整个生产音效和视觉识别体验做的非常好,大家才会去用。

这个是车的服务,跟行车相关的所谓的五大服务,维保、停车、充电、违章、保险这是汽车具备互联网的能力,要联网基于云的服务推送,包括账号绑定等等一些功能。

因为我们手机上生态非常多,我们想通过快应用直接通过手机投屏的方式带到车里了。

除了刚才的情景智能以外,构建一个基于车的开放和中立的服务生态是非常重要的。但是这个服务生态就是刚才说的分两个方面,第一个就是车上会有一些比较高频的服务,比如说音乐、导航,这些服务的话我们给它起了一个定义叫原子化服务,比如说音乐在车机上不合适装一堆音乐,什么腾讯音乐、QQ音乐、华为音乐,装一推,每一个APP有一个独立的入口,我们认为这种状态在车上的服务体验不好,就是我们定义一种服务就是原子化服务。在车上就是音乐,你点开这个音乐就有歌曲,来自哪里你不用关心。在云端做一个HAG服务聚合,至于服务的来源你不用关心,你只要关心打开的是音乐我们认为这种原子化的服务在车上才是最重要的服务体验。

另外就是导航,导航现在首要看的就是我怎么拼得过手机?如果一个智能化的汽车司机在有座舱的车上频繁用手机的话,我认为这个智能座舱还是失败的。在车的导航凭什么用户体验好于手机?因为有人说屏幕大,第二个就是导航可以更新,第三个方面如果经过深度定制的导航服务,我一定会做的比手机有优势。

比如说我举一个例子,如果我的一个导航系统装在车上了,比如说转弯的时候有盲区,这时候我打开一个地图,我的车的侧方位的摄像头打开跟导航做深入结合的时候,转弯的时候通过摄像头的图象数据在地图上呈现出来,如果简简单单这样的举措,我相信很多司机用车上的导航,因为很多额外的东西是手机不具备的,就是高频的这些服务一定要在车上做深度定制的,这是我们的观点。

另外就是长尾的应用就是跟你的用户体验不是强相关的,就是做普通的服务,这时候可以通过手机投屏的方式完成。

如果要构建车内的颠覆式的用户体现,以下两个工作我们觉得是必不可少的。第一个就是要具备以情景智能为中心的智能座舱的体验,并且这种情景是可以演进的。

第二如果要获得良好的行车服务,要做一个深度定制化的车相关的应用服务,其他的一些快应用比如说长尾应用可以通过手机的引入方式来完成。谢谢大家!


关于我们 网站地图 版权声明 人才招聘 联系我们

中国质量协会 版权所有
Copyright©2003-2008 All rights reserved 京ICP备05018279-1 京公网安备 110102000185

Baidu
sogou