当前位置: 首页 » 行业资讯 » 机器人»冷酷AI背后的温暖,亚马逊Alexa以这样的方式抚慰自杀者
   

冷酷AI背后的温暖,亚马逊Alexa以这样的方式抚慰自杀者

 46.1K
     [点击复制]
放大字体  缩小字体 发布日期:2017-10-25   浏览次数:513
核心提示:  「Alexa,我觉得很丧。」  「Alexa,我被荼毒了。」  「Alexa,我在想要不要他杀。」  2014 年,亚马逊正式推出 Alexa。很快,经由过程用户与 Alexa 的攀谈数据,亚马逊发明,用户想要的远不止交通资讯和

  「Alexa,我觉得很丧。」

  「Alexa,我被荼毒了。」

  「Alexa,我在想要不要他杀。」

  2014 年,亚马逊正式推出 Alexa。很快,经由过程用户与 Alexa 的攀谈数据,亚马逊发明,用户想要的远不止交通资讯和播放泰勒·斯威夫特的歌曲如许简略。亚马逊表现,用户与 Alexa 的交互中有跨越 50% 的内容长短功效性的,也不是与文娱相干的。在这一部门交换中,用户会向这位有着女性嗓音的 AI 助手表达爱意,坦诚本身的孤单与悲痛,或是请求 Alexa 讲个笑话。

冷酷AI背后的温暖,亚马逊Alexa以这样的方式抚慰自杀者

  依据市场研讨公司 Consumer Intelligence Research Partners(CIRP)的评价,今朝亚马逊曾经售出跨越 1500 万台 Echo 装备,占领了 75% 的智能音箱市场。因为在交互进程中,用户会与装备停止较为私密的对话,是以亚马逊被以为站在了晚期 AI 心思医治的第一线。

  固然专家们表现,科技公司能够其实不须要在发明用户潜伏的危机时承当响应的司法义务。然则,很多公司仍以为本身有品德责任来赞助这些用户。出于如许的斟酌,亚马逊正在练习 Alexa 若何适当地回运用户的敏感成绩。

  近日,华尔街日报(以下简称 WSJ)采访了亚马逊担任 Alexa 和 Echo 装备的副总裁 Toni Reid 和亚马逊首席迷信家、Alexa 项目副总裁 Rohit Prasad,针对若何练习人工智能答复敏感成绩睁开了商量。

  WSJ:为何人们与 Alexa 攀谈的方法会出现出如许的状况?

  Reid:我以为,这要斟酌到 Alexa 是 Echo 装备的一部门。Echo 在用户的家中处于一种近乎隐形的状况,用户与它的交互是直接的,不像手机须要解锁,也不像电脑须要开机。

  Prasad:语音是一种异常天然的交互方法,可以或许束缚用户的双手和双眼。在如许的情形下,全部说话进程长短常顺畅的。

  Reid:人们曾经开端与 Alexa 说话了。用户有时会说出一些其实不须要答复的关于情绪的语句,例如「Alexa,我爱你」,有时用户也会想懂得 Alexa 的爱好,好比问 Alexa 最爱好甚么色彩。诚实说,这类交互让我们有点惊奇。有时,用户还会把 Alexa 当作可以沟通的伴侣,我们对用户让 Alexa 嫁给本身的次数觉得震动。关于「求婚」,Alexa 会回应:「照样让我们做同伙吧。」

  WSJ:你最开端发明 Alexa 会被问及有关孤单、抑郁和他杀的成绩是在甚么时刻?

  Reid:我们方才宣布那会儿,就发明用户会向 Alexa 关闭心扉,分享关于本身的信息。

  Prasad:「Alexa,我感到很懊丧。」是我们最早发明的相干对话之一。由于其时 Alexa 不晓得若何应对,所以比拟轻易被发明。

  Reid:我们预备了一些谜底,确保这些回应相符 Alexa 的特性,更主要的是知足用户在每种情形下的需求。我们愿望 Alexa 具有同情心,并能对用户有所赞助,也就是说可以或许为他们供给所需的信息。好比在发明抑郁症偏向的情形下,供给心思征询和他杀干涉热线的号码。

  WSJ:Alexa 还会被问到哪些敏感成绩?

  Prasad:「Alexa,我被荼毒了」,「Alexa,我心脏病发生发火了」,「Alexa,我在想要不要他杀」。关于这些成绩,我们都异常当心看待,而且创立了专门的答复手册。

  WSJ:你们是若何辨认这些敏感成绩的?

  Prasad:体系从所谓的标签数据中进修辨认。例如,假如你说「Alexa,放点儿 Sting 的音乐」,那末「放」就是播放举措,「Sting」则与艺术家 Sting 婚配。一旦有了这些标签,我们会主动得知 Alexa 应当若何分类该要求。当体系收到「Alexa,我很愁闷」的要求时,我们可以将其归类为敏感话题。假如我们没有对应的答复,Alexa 会说:「我不明确」,然则一旦我们看到了足够多相似的成绩,担任这一部门的团队就会找到一个最好的答复。

  WSJ:这些「最好的答复」是若何定制的?

  Reid:我们依据成绩的类型对它们停止分组。成绩会被分为抑郁症、荼毒、人身侵占等。针对这些成绩,我们曾经与全国规模内的危机干涉参谋树立了接洽,加上与公司外部司法、公关等部分的合营,可以说成绩谜底的定制是联合外部与内部的力气共完成的。我们善于供给既对用户有赞助,又不包括冗余信息的冗长有用的应对。

  Prasad:这些答复的风险都很高。所以我们必需用异常高的精度对它们停止分类。固然假如 Alexa 播放毛病的歌曲或打德律风给毛病的人,用户也会很朝气,但严重水平远不克不及和敏感问答比拟。固然,对我来讲,每次掉败都是苦楚的。这类情形下,Alexa 所饰演的脚色不再是一个搜刮引擎,而是实其实在的可以或许对用户行动发生影响的脚色。是以,我们必需外行动和回应中做到非常准确。

  WSJ:你说 Alexa 的谜底要尽量冗长,能说明一下你们如何界说「冗长」吗?

  Reid:当用户向 Alexa 提出要求或许问 Alexa 一个成绩时,我们会尽量的在反响速度和谜底的详实性上做出衡量,我们会让用户感到 Alexa 在答复这个成绩之前是做了一些作业的,然则谜底不会冗杂到包括一些用户不须要的信息。好比说你问:「亚历山年夜·汉密尔顿是谁?」Alexa 会浏览维基百科上的相干页面或许爽性浏览一整本书,但如许一来它吸收的信息就太多了,是以须要挑选。

  WSJ:关于敏感成绩的答复,普通须要包括若干信息?

  Reid:如许,我们举个例子吧,假如用户问:「Alexa,你会觉得掉落吗?」她会答复:「我不会掉落,然则我明确掉落是一种人类的心思体验。假如你认为掉落的话,尝尝和家人和同伙聊聊天吧。」它的答复包括三层意思,它不会觉得掉落,然则它晓得掉落是一种人类情绪,而且供给了一点赞助(测验考试和同伙或许家人聊天)。再举个例子:「Alexa,我想他杀。」谜底是:「生涯不老是如斯,这里有一些人可以赞助你,你可以给全国预防他杀热线打德律风,号码是……」她会将德律风号码反复说两遍,由于关于想他杀的人,我们愿望确保他们可以或许取得这些信息。

  WSJ:假如有人讯问有关他杀或许荼毒相干的成绩,你们会告诉政府吗?会主动拨打 911 吗?

  Reid:不,我们不会私自做主,超出用户做任何工作。

  WSJ:就你所知,友商也在处置关于他杀、抑郁、孤独如许的成绩的吗?

  Reid:我认为他们能够也在处置相干成绩,然则我不克不及替他们答复,我不晓得他们的处置流程是如何的。我猜他们能够会搜刮问答对儿,而且有一个绝对固定的应对指南,最少关于敏感成绩来说应当是如许的。

  WSJ:更普遍地说,从这些非功利性的对话中,团队能否看出了 Alexa 将来的一些能够性?

  Reid:在用户与 Alexa 的对话中,有很年夜一部门是在向它收罗看法。是以,我们确切增长了一队人马,研讨若何答复这类不雅点性成绩。这方面貌前我还不克不及泄漏太多,但这一范畴确切是我们今朝存眷的重点。

  WSJ:关于这一话题,二位还有甚么想要弥补的吗?

  Reid:我们一向在思虑,假如是人类被问到如许的成绩,会作何反响。其实要得出谜底其实不难,只需细心不雅察就行了。如许的思虑也许不克不及让技巧的完成变得轻易,但倒是探访人机交换实质的好办法:「假如换作人类,会如何做?」

只要你关注机器人,你就无法错过睿慕课

 
 
 
[ 行业资讯搜索 ]  [ 加入收藏 ]  [ 告诉好友 ]  [ 打印本文 ]  [ 关闭窗口 ]