当前位置: 首页 » 行业资讯 » 机器人»人工智能的偏见恐难以消除 未来应限制其应用领域
   

人工智能的偏见恐难以消除 未来应限制其应用领域

 46.1K
     [点击复制]
放大字体  缩小字体 发布日期:2017-04-22   来源:北京青年报   浏览次数:468
核心提示:  人工智能能够让人类进入新的文明时期,然则一种新忧愁也发生了:人工智能也会像人类一样发生各种成见和轻视,并且,这类成见和轻视与生俱来,是人类教会了它们。在人工智能自然会习得人类的成见和轻视的弱点未能


  人工智能能够让人类进入新的文明时期,然则一种新忧愁也发生了:人工智能也会像人类一样发生各种成见和轻视,并且,这类成见和轻视与生俱来,是人类教会了它们。在人工智能自然会习得人类的成见和轻视的弱点未能战胜之时,限制其运用范畴将非常需要。人工智能的成见恐难以清除 将来应限制其运用范畴

  英国媒体《卫报》近日揭橥的一篇文章指出,盘算机在进修人类说话时接收了人类文明中根深蒂固的不雅念,发生了成见和轻视。

  在人们孳孳以务实现社会公正和公理之时,人工智能假如带有成见,就弗成能更好地完成其替换人类任务和办事于人类的义务。这是人工智能运用面对的另外一种伟大挑衅,假如不克不及处理这个挑衅,明显没法寄与人工智能以厚望和付与其更年夜、更艰难和更高尚的任务。

  人工智能的成见和轻视早就惹起了人们的留意,较典范的是微软2016年3月23日推出的人工智能聊天机械人Tay。设计的最后目标是让其成为一个善解人意的小女孩,为用户排难解纷。然则,上线第一天Tay就酿成了一个满口鄙言秽语的种族主义者,揭橥了很多白人优胜的谈吐,乃至还酿成了希特勒的粉丝,要提议种族灭尽战斗。目击不妙,微软公司连忙将Tay下线,并删除一切不适谈吐。经由调教,Tay于2016年3月30日再次上线,但宿病复发,不能不再次下线。

  如今,一项揭橥于《迷信》杂志(2017年4月14日)的研讨提醒了人工智能的缺点起源于人类。美国普林斯顿年夜学信息技巧政策中间盘算机迷信家阿尔文德·纳拉亚南(Arvind Narayanan)等人在网上用“爬虫”软件搜集了220万个词的英语文本,用来练习一个机械进修体系。这个体系采取了“文字嵌入”技巧,是一种广泛运用于机械进修和天然说话处置进程的统计建模技巧。个中,也包含依据心思学家提醒人类成见时应用的内隐联想考试(IAT)。

  文字嵌入的焦点是采取一种称为词语表达全局向量的无监视进修算法,经由过程对词语库中词对词同现的统计成果停止练习,在处置辞汇时,重要依据各类身分来不雅察词语之间的相干性,即分歧的词配合涌现的频率。成果,在最为相邻相干的词语上涌现了与人类说话应用类似的语义组合和接洽情形。

  比拟中性的成果是,鲜花与女人相联,音乐与高兴相干;但极真个成果是,懒散,乃至犯法与黑人相联;隐蔽的“成见”则把女性与艺术、人文职业和家庭接洽得更加慎密,让男性与数学和工程专业更加接近。

  其实,这不克不及怪人工智能,而要怪人类。人类自出生以来和在演变过程中一向充满着成见,并且从人类社会构成以来,更充斥相当多的负面和人道的弱点,一切这些都邑表现在人类的文明中。而文明的载体就是说话,所以一切的成见都可以从说话和语义中找到本源。

  教会人工智能更加客不雅和公平,至多比人类更客不雅和公平,在今朝仿佛还难以做到。由于人类文明中的成见和轻视是一种与生俱来的“原罪”,人类要末在除失落本身的原罪后能力教会人工智能更加公平和客不雅,要末就是引进社会监视的恶马恶人骑道理来教会和监视机械公平和公正。

  当人类设计和研发的人工智能尚缺乏以做到更客不雅、更公正和更公平(公理)时,人工智能的运用就有能够遭到限制。例如,假如让人工智能来处置雇用,不公平的情形会像人工处置一样涌现,乃至更多,由于假设请求者的名字是欧洲裔美国人,所能获得的面试机遇将比非洲裔美国人要多出50%,男性名字的请求者也能够比女性名字的请求者取得面试机遇多。

  即使是人工智能记者(写作软件)能写稿了,但因为成见(特别是说话应用和语义接洽、联想必定会发生的成见)存在,也只能让机械人写财经统计类的稿,而不克不及写查询拜访类的稿件,更不克不及写评论稿,特别不克不及写辛普森案件一类的稿,不然字里行间就会表现出成见和轻视。

  在人工智能自然会习得人类的成见和轻视的弱点未能战胜之时,关于人工智能的成长远景就不克不及抱太年夜的希冀。

 
 
 
[ 行业资讯搜索 ]  [ 加入收藏 ]  [ 告诉好友 ]  [ 打印本文 ]  [ 关闭窗口 ]