快好知 kuaihz

AI时代人车交互体验:从“被动”到“主动”、从车内到车外

AI时代,人与车的交互将打破由人来发起再逐层深入的方式,在用户需要的时候AI主动的把对应的服务放到用户面前。

7月3日-4日,“Baidu Create 2019”百度 AI开发者大会在北京国家会议中心隆重举行,大会聚焦产业智能化,向业界展示了百度最新的技术进展和落地实践。

在此次大会的百度AI交互设计论坛上,百度人工智能交互设计院院长、百度设计体验委员会主席关岱松与其设计团队,共同向外界展示了百度人工智能交互设计院基于深度学习的人因工程,以及百度AI交互设计在无人驾驶、智能硬件、百度大脑、机器人、AR、VR等方面协同发展的实践。并发布多项最新AI交互设计成果,不仅包含全新升级的小度交互设计系统,更有AI交互设计助力产业智能化的最新探索。同时,三款基于百度自然情感交互系统NIRO开发的软硬一体化创新机器人也在现场首次亮相。

无法进行“沉浸式”交互、驾驶人员的双手和视线两个重要的交互通道长期被占用、交互的距离被限制、交互的精准度会因为驾驶环境改变……诸多人车交互体验中难以解决的痛点。

在论坛上,百度智能驾驶交互设计师都为我们带来了全新的解决方案。如何将不适合在车内使用的“被动式交互”转变为机器自主性更强的“主动式交互”,这将是百度探索人车交互领域的重要方向。

同时,百度设计团队重构了基于“主动式交互”的小度车载OS,在驾驶安全和操控效率两方面进行了体验的提升。在更加智能的无人驾驶时代,由于交互距离和环境的变化,交互通道和方式也随之不同,而汽车的主动交互也将从车内扩展到车外。

以下为演讲实录:

大家好,我是来自百度智能驾驶的交互设计师。很高兴今天能跟在座的各位一起来聊聊人车交互体验这个话题。说到人和车的交互,我们最熟悉的一定是开车这件事。我相信台下也有不少的“老司机”,对其中的酸甜苦辣都深有体会。

我们发现:在人车交互体系中,有一个非常重要的特点,就是驾驶员的核心注意力一定是被“开车”这件事占据的。

所以,我们是不允许驾驶人员和车机系统进行“沉浸式”的交互的。除了注意力这种无形的交互限制外,驾驶人员的双手和视线两个重要的交互通道也被占用了。

驾驶员可以偶尔单手操作,但可交互的距离被限制在了臂长范围内。同时,由于路面可能会颠簸、单手操作时的肘部是悬空的,这些都会导致操控的精准度下降。而另一方面,驾驶员的视线无法离开路面超过3秒,尤其是在高速驾驶的场景下,1秒钟内汽车的移动距离最高可达30多米,眨眼间,可能就会造成惨剧。

但是,人们其实很难在驾驶过程中老老实实的,双手握好方向盘,视线紧盯路面,别的什么都不做。

通过我们的调研发现:用户在开车时,会做很多事情,比如看看路况、听听音乐、和朋友聊聊天,甚至下班的路上顺便定个外卖,到家刚好能吃上。

在这个数字化的智能时代,我们不可能让驾驶人员一坐进车里就突然断掉与外界的一切沟通,不去处理任何生活和工作的相关信息,只做开车这一件事。

那么,我们来看一下当下市场上的车机系统是如何解决这些问题的呢?

来自汽车销售市场的数据:预计2020下半年新车的网联率将超过50%。越来越多的汽车搭载了互联网车机系统,越来越多的功能被集成到一块越来越大的屏幕里,人们在互联网时代已经熟悉的交互方式被直接搬到了车里面。

但是,一边开车一边要时不时的在屏幕上戳几下,这种体验真的是好的吗?

我们把人们已经非常熟悉的交互方式称为“被动式交互”。它的逻辑很简单,由人给机器发号施令,机器执行并输出结果反馈给人。结合前面说的驾驶场景下的交互特点,就会发现被动式交互是不适合在车内使用的。用户需要发起和推进每一个节点,这样会导致视线需要频繁从路面上移开,不仅带来不安全的隐患,整个过程也是非常低效的。

于是我们设想:人与车的交互可不可以打破这种由人来发起再逐层深入的方式?汽车能不能在我需要的时候主动的把对应的服务放到我面前,而不再需要我在开车时手忙脚乱的去找~这样美好的体验设想,我们把它称为“主动式交互”。

那么,什么是主动式交互呢?

不同于被动式交互由人来发起,主动式交互以机器为起点,主动输出执行结果或建议给使用者。

其次,机器可以自己主动的从外界输入信息然后进行决策判断,不再需要人来输入指令。

接下来,我们就从输入和输出这两个重要的环节切入,具体分享一下我们是如何打造主动式交互的车机系统。

首先来看主动输入。

主动输入的体验目标有两个:精准度和无感知。

如果一开始机器对外界的感知就不精准,判断出错,那么机器的主动输出很有可能不是用户需要的,所以我们要确保精准。

另一方面,机器的主动输入过程也不能干扰用户,那最好的方式就是让用户感知不到,也就是无感知交互

我们把车和人感知世界的方式做比较,人有感官,可以通过看和听来感知周围的环境。同样的,我们通过在车内搭建一套硬件传感系统作为车的感官,借助AI的识别技术,让汽车也具备和人类似的听、说、看的能力。

说完了主动输入,我们再来看看主动输出;输出是机器主动和人进行沟通的重要环节,在驾驶这个特殊的场景下,机器的主动输出要尤为注重减少驾驶干扰和提升传达效率。

在人和人的交流当中,接收对方信息的最主要方式就是通过听和看,所以我们选取了听觉和视觉这两个通道,进行了一轮实验研究。

我们测试了不同驾驶负荷下用户对输出通道的接受度,最终我们发现:驾驶场景下对人的听觉占用相对较少,所以语音可以作为主要的信息输出形式,而视觉界面做为辅助,可以帮助提升信息的传达效率。语音设计我们并不陌生,在很多智能设备上都有应用,但更多的都是在围绕着如何让人说的爽。而今天我们来聊聊,如何为听而设计语音。

有句耳熟能详的俗话叫“左耳朵进右耳朵出”,就是说与我们看到的东西相比,我们对听到的东西遗忘得更快。所以,为听而设计的难点就在于:如何让用户听完后一段语音之后能立即理解并给出相应的答复?

我们先来看个例子:这两句话看起来字数差不多,转化成小度的标准语音,长度都是14秒,我们一起来听一听感受一下。

不知道大家发现问题没有,第一段听完其实你是不知道要做出什么反应的,第二段稍微好一些,听完至少记住了可以说:小度小度,我要取号。

那我再考大家一个知识点,黑天鹅餐厅现在排位到底需要等待多久呢?大家可能都没有注意到这个信息。显然,由于听到的内容太多,反而让关键信息无法突出。

国外曾有个测试短期记忆的实验,发现被试者在听到声音8秒后,对声音内容的记忆就开始减弱。所以,我们把语音播报的长度尽可能的控制到8秒。问句是人和人之间非常自然的开启对话的方式,所以我们在关键点使用询问的句式。

说完了听觉,我们再来看看主动输出的另一个通道——视觉;有句俗话叫“百闻不如一见”,视觉阅读的文字信息量可以达到听觉的2-5倍。但是,在驾驶场景下,又要尽可能减少图形界面对用户视线的占用,所以我们提出了扫视设计的理念。

什么是扫视呢?

我们来看这段文字,给大家2秒的时间快速的阅读一下。

你看到了什么呢?大部分人可能是看到了这些文字。其实我们发现人眼看文字,并不是一个字一个字地进行,而是有一个扫视的范围,一眼大约有3—4个字,跳跃着前进。大脑就会根据我们的语言习惯,在这些没有看清的”空缺”里面自动填进内容,这就是扫视。

所以,我们在主动输出的界面设计中,也应用了扫视的原理,将用户关注的重点信息突出展示,同时严格控制信息长度,帮助用户能够在1-2秒的时间内扫一眼就能迅速抓住重点。

那么俗话又来了,叫“一图胜千言”,所以我们还搭配了简洁的图像,提高在短时间内信息传达的效率。一起来看个案例。

最近在追爱奇艺乐队的夏天,最喜欢的就是刺猬乐队了,刚好在车上想听歌时就主动推给我了,是不是感觉很爽?那在原来被动式交互的车机系统里,我要做哪些操作才能听刺猬的歌呢?

可以看到整个过程里,从进入音乐应用到播放歌曲,我的视线至少要从路面转移3-4次。而在主动式交互方式下,视线至多转移一次即可。所以说,主动式交互可以有效减少用户视线的转移次数,从而提升操作的安全性。

再来看一个例子:

出停车场缴费不用掏手机、也不用在车机上费劲的找某个停车缴费小程序。

所以说,主动式交互省去了记忆和寻找功能入口的麻烦,从而提高了交互的效率。基于车机的中控屏,我们做的一些主动式交互探索。当引入更多输入和输出通道时,交互体验也会更加完善。

在接下来这个概念方案中,可以看到,通过追踪用户的视线焦点,以及使用HUD这种输出通道,能够进一步提升驾驶时的交互体验。

人工智能技术使得机器的自主性越来越强,机器会变得越来越智能,随之交互也会变得越来越主动。那么,在更加智能的无人驾驶时代,汽车又会怎样的“主动”的和人类交互呢?

事实上,在无人驾驶的时代,车不仅要和车内用户交流,还要主动的和车外行人、道路上行驶的其他车辆进行交互。而车和外部环境的沟通方式,由于距离和噪声的影响,也会有很大不同。这是针对行人设计的一套车外主动式交互的方案。

最后,让我们一起,打开AI交互的大门,预见,更好的未来!

谢谢大家!

本站资源来自互联网,仅供学习,如有侵权,请通知删除,敬请谅解!
搜索建议:交互  交互词条  被动  被动词条  主动  主动词条  体验  体验词条  时代  时代词条