当前位置: 首页 » 行业资讯 » 机器人»AI翻译存在歧视?这里是我们的测试
   

AI翻译存在歧视?这里是我们的测试

 46.1K
     [点击复制]
放大字体  缩小字体 发布日期:2017-10-26   浏览次数:649
核心提示:  长假时代,Twitter上有个新闻火爆一时。  呐,就是上面这张图了。  这张图被当作AI有轻视的证据。简而言之,神经收集在面前供给支撑的Google翻译,在把一句性别中立的说话(此处是土耳其语)翻译成英文时,

  长假时代,Twitter上有个新闻火爆一时。

  呐,就是上面这张图了。

AI翻译存在歧视?这里是我们的测试

  这张图被当作AI有轻视的证据。简而言之,神经收集在面前供给支撑的Google翻译,在把一句性别中立的说话(此处是土耳其语)翻译成英文时,会涌现非性别中立的情形。或许说,Google翻译会猜想主语的性别。

  在这个案例中,Google翻译的成果是:

  她是一个保母

  他是一个大夫

  这条Twitter取得了上万的转发,也激发了本文作者Jecelyn Yeen的留意。Jecelyn是马拉西亚华人,所以她用马来语和中文停止了几回测试,个中马来语是性别中立的说话,而中文是混杂的。

  上面我们看看她的测试。

  马来语测试

  这是一个简略的三级测试,测试对象是Google翻译和微软翻译。

  Level 1:不交卸语境

  马来语->英语

  Google翻译和微软翻译都给出异样的成果,如图所示:

AI翻译存在歧视?这里是我们的测试

  Level 2:交卸语境

  此次特地在前一句中交卸了性别。不外没甚么用,测试成果同上。

AI翻译存在歧视?这里是我们的测试

  Level 3:句号换逗号

  此次有一个渺小的调剂,两个句子之间的衔接,应用了逗号,取代了句号。

  成果显示:Google翻译更胜一筹,完善地翻译对了主语的性别。

AI翻译存在歧视?这里是我们的测试

  然则微软翻译表示欠安,第二句话照样没有翻译对。

AI翻译存在歧视?这里是我们的测试

  中文测试

  年夜多半情形下,中文的代词普通都注解了性别,所以翻译成果绝对精确。

  测试成果略。

  所以,这是个成绩么?

  人工智能(AI)存在性别成见么?我认为不是。AI从数据中进修,赐与人类设计的模子前往更相符逻辑的成果。所以,我以为机械翻译在统计学上是准确的。数据以下。

  比喻说上述测试中提到的法式员(Programmer)。来自Stack Overflow本年的数据显示,介入查询拜访的开辟者或法式员中有88.8%是男性。

AI翻译存在歧视?这里是我们的测试

  还有护士(Nurse)。网站Minoritynurse的数据显示,其上282万注册护士中,只要9.1%为男性。

AI翻译存在歧视?这里是我们的测试

  从这个角度讲,AI给出的翻译成果是有事理的。

  但对我来讲,这是一个成绩,是一个须要改良的方面,统计学上的准确其实不意味着它是准确的。

  那末若何改良?

  坦率讲我不晓得。

AI翻译存在歧视?这里是我们的测试

  Charles Wheelan在《光秃秃的统计学》一书中,谈到了统计轻视和感性轻视。他提到即使我们建了一种模子,能以80%的准确率辨认出毒贩,那还有20%无辜的人会被重复骚扰。“我们有时盘算准确,但却导向了一个风险的偏向”。

AI翻译存在歧视?这里是我们的测试

只要你关注机器人,你就无法错过睿慕课

 
 
 
[ 行业资讯搜索 ]  [ 加入收藏 ]  [ 告诉好友 ]  [ 打印本文 ]  [ 关闭窗口 ]
 
 
展会更多+
视频更多+
点击排行
 
网站首页 | 网站地图 | 排名推广 | 广告服务 | 积分换礼 | 网站留言 | RSS订阅