当前位置: 首页 » 行业资讯 » 机器人»年度研究报告:为AI领域提供的十条建议
   

年度研究报告:为AI领域提供的十条建议

 46.1K
     [点击复制]
放大字体  缩小字体 发布日期:2017-11-10   浏览次数:848
核心提示:  AI Now 在其举行的 AI 专家年度研究会约请了一百多位相干范畴的研讨人员,会议评论辩论了 AI 对社会经济的影响,在会上,AI Now 宣布了第二份 AI 年度研讨申报。  固然"对 AI 抱有很高的希冀,但我们也要留意

  AI Now 在其举行的 AI 专家年度研究会约请了一百多位相干范畴的研讨人员,会议评论辩论了 AI 对社会经济的影响,在会上,AI Now 宣布了第二份 AI 年度研讨申报。

  固然"对 AI 抱有很高的希冀,但我们也要留意到,疾速推动将 AI 体系整合到高风险范畴正面对着伟大的挑衅。就拿刑事司法范畴来说,Propublica 团队及多逻辑学者发明,法庭和法律部分用于猜测刑事罪犯再次犯法的算法,能够对非裔美国人存有相当明显的成见。而在医疗保健范畴中,匹茨堡年夜学医学中间的研讨发明,一种用于医治肺炎的 AI 体系缺乏了一项对严重并发症的风险评价。教导范畴中,德克萨斯州的教员评价算法存在严重缺点,教员们是以告状了他们地点的学区并取得胜利。

  上述这些例子只是冰山一角,没有提到的、还没有为人所知的例子还有许多。带来的一个挑衅是,AI 行业今朝缺乏尺度化的测试形式和审核办法,没法完整防止算法误差来保证它们的平安性。但是,晚期的 AI 体系正被引入多个范畴,如医疗、金融、司法、教导和任务场合。这些体系愈来愈渗透人们的平常生涯中,用于猜测人们的音乐喜好、生病几率、合适的任务和假贷金额等等。

  罗列的这些成绩并不是蓄意滥用 AI 技巧而至,而是由于在 AI 技巧的应用进程中,没有效于确保平安性或许公正性的相干流程及尺度,更没有深刻思虑它们带来的社会效应。尽人皆知,当新药上市前,一定经由严厉的测试,并连续检测中历久的后果。在这类范畴要慎之又慎,由于一旦失足,将会给人们形成严重损害。关于高风险范畴的 AI 体系亦如斯。

  AI Now 在这份申报中,为 AI 行业的研讨人员和决议计划者供给了十项建议。须要留意的是,这十项建议并不是处理方法,而是进一步任务的终点。虽然 AI 产物正在敏捷成长,但对算法成见和公平的研讨尚处于晚期阶段,假如想要确保 AI 体系可以或许被担任任地安排与治理,还有许多的工作须要去做。AI Now 表现,他们将努力于进一步研讨,并停止普遍的社辨别享。


  十项建议


  建议一

  刑事司法、医疗保健、福利和教导等高风险范畴内的焦点公共机构不该再应用“黑盒子”的 AI 技巧和算法体系,包含未经审查和验证的情形下应用预练习模子,采取第三方供给商受权的 AI 体系及外部创立的算法。

  公共机构应用这类体系会惹起"对这类法定诉讼法式的严重任忧。这些体系至多要经由公共审计、测试和审查的流程,并遵照响应的问责制。

  这带来了一个严重改变:这条建议反应了 AI 及相干体系曾经对一些严重决议计划发生了影响。在曩昔一年,亦有很多可这一点作证的研讨申报。人们也执政向这个目的进步:从特克萨斯州教员评价诉讼案到 10 月份纽约市议会一项关于保证算法决议计划体系的通明度和测试的法案。

年度研究报告:为AI领域提供的十条建议

  James Vacca,来自纽约市布隆克斯区的市议员,2015 年提出地下市政决议计划算法的提案。

  建议二

  在宣布 AI 体系之前,企业应当停止严厉的预宣布测试,以确保不会因为练习数据、算法或其他体系设计的缘由,招致体系涌现任何毛病及误差的产生。

  因为 AI 范畴的成长一日千里,是以停止测试的办法、假定和测试成果,都应当地下通明、有明白版本,有助于顺应更新进级及新的发明。

  AI Now 以为,开辟体系并从中获利的公司应承当响应的测试及保证环节的义务,包含预宣布版的测试。AI 范畴离尺度化办法还有很长的路要走,这也是为何 AI Now 建议这些办法和假定须要地下审查和评论辩论的缘由。假如假以光阴,AI 范畴制订出了硬朗性测试尺度,那末这类开放性相当主要。即便采取了尺度化办法,试验室测试也未必能碰到一切的毛病和盲点,是以也就有了第三项建议。

  建议三

  在宣布 AI 体系后,公司应持续监控其在分歧情况和社区中的应用情形。

  监视的办法和成果应经由过程地下通明、学术严谨的进程来界定,并向"担任。特殊是在高风险决议计划情况中,应优先斟酌传统边沿化社区的不雅点和经历。

  确保 AI 和算法体系的平安性长短常庞杂的成绩,在给定体系的性命周期中须要坚持连续的进程,而非做完就忘的短时间磨练。为了确保 AI 体系不会由于文明假定和范畴产生转变时引入毛病和误差,是以须要对静态用例和情况停止监控。异样值得留意的是,很多 AI 模子和体系有通用性,其产物能够会采取即插即用的附加功效,如情绪检测或许脸部辨认等。这意味着供给通用 AI 模子的公司也可斟酌选择曾经同意应用的功效,这些功效曾经斟酌过潜伏的缺点和风险等身分。

  建议四

  让 AI 体系运用于任务场合治理和监测方面(包含雇用和人力资本环节),还须要停止更多的研讨并制订响应的政策。

  这项研讨将重点弥补现有主动化替换工人的研讨,要特殊留意对休息者权力和做法的潜伏影响,特别是要留意把持的潜伏行动和在雇用和提升进程中有意强化的成见。

年度研究报告:为AI领域提供的十条建议

  HireVue 成立于 2004 年,总部位于美国犹他州,是收集雇用的前驱之一,并一向努力于网上视频面试。但它不只仅是应用收集摄像头赞助企业面试应聘者,HireVue 还可以供给雇用治理处理计划,赞助企业处置求职请求,并制订决议计划,而应聘者只需经由过程手机或电脑录制视频。

  关于 AI 和休息力的争辩平日会合中在自愿流浪掉所的工人身上,这是一个异常严重的成绩。然则,AI Now 也以为懂得 AI 和算法体系在全部任务场合中应用的情形,也一致主要,包含行动助推(AI 前哨注:行动经济学中的助推实际,经由过程解析人的认知行动,设计更人道化、有用的选择情况,影响人们的行动,赞助人们更好的做决议计划。该实际由 Thaler 提出,是以取得 2017 年诺贝尔经济学奖。)、到检测环节,再到绩效评价的一切进程。例如,一家名为 HireVue 的公司比来安排了一个基于 AI 的视频面试办事,用于剖析应聘者的讲话、肢体说话和腔调,肯定应聘者能否相符一家给定公司的“最好员工”的尺度,因为这些体系能够会削减多样性并稳固现有的成见,是以人们须要下更多的工夫去充足懂得 AI 若何融入治理、雇用、调剂和平常任务场合的理论中。

年度研究报告:为AI领域提供的十条建议

  行动经济学家 Richard Thaler 提出了助推实际,是以取得了 2017 年诺贝尔经济学奖。

  建议五

  制订尺度,跟踪体系全部性命周期的来源、开辟进程及练习数据集的应用情形。

  为了更好地懂得和监视误差和代表性误差(representational skews)的成绩,这条建议长短常有需要的。除却更好地记载练习数据集的创立和保护进程外,AI 误差范畴的社会迷信家和丈量研讨人员还应当持续磨练现有的练习数据集,并尽力懂得能够已存在现实任务中的潜伏盲区和误差。

  AI 依附年夜范围数据来发明形式并作出猜测。这些数据反应了人类汗青,但也弗成防止地反应了练习数据集的成见和偏见。机械进修技巧关于提取统计形式很拿手,但常常在归纳综合罕见案例的进程中疏忽了分歧的异常值,这就是为何不依据数据外面价值停止误差研讨的主要缘由。这类研讨要从懂得 AI 体系的数据从哪里开端,并寻踪这些数据在体系中若何应用,还要跟着时光推移来验证给定的数据集。懂得这一点,人们方能更好懂得数据中反响的毛病与误差,从而开辟出能在数据的开辟和收集中辨认这类情形并加重其毛病的办法。

  建议六

  超出狭窄的技巧界限,跨学科成长 AI 误差研讨懈弛解战略的研讨。

  误差成绩由来已久,是一个构造性的成绩,处理这个成绩的需要门路之一就是深度的跨学科研讨。研讨人员试图找出可以或许依然如故的完全处理的办法,却不知这严重低估了这个成绩在社会层面中的庞杂性。须知在教导、医疗保健、刑事司法等范畴中,误差成绩战争等活动的遗产都有本身的汗青和理论。不联合响应的范畴专业常识,就不克不及完全处理误差成绩。要处理误差成绩就须要跨学科的协作,并尊敬分歧学科的纪律。

  比来,AI 和算法误差范畴的任务有喜人的迹象,但 AI Now 提示人们不要向壁虚拟,不然,极可能会涌现体系在不晓得若何优化下却被“优化”的风险。盘算机迷信家可以经由过程与司法、医学、社会学、人类学和流传学等范畴的专家协作,在 AI 数据构成及高低文集成之前,更好地舆解数据地城的构造性不屈等的成绩。

  建议七

  亟需 AI 体系落地运用的审查尺度与标准。

  制订这些尺度与标准须要联合各类学科及同盟的不雅点,制订进程要以地下、严谨的学术立场停止,并按期审查和修订。

  今朝还没有肯定的办法可以或许权衡评价 AI 体系在其运用的社会范畴中所发生的影响。鉴于今朝尚处晚期的 AI 体系曾经给一些高风险的社会范畴形成了影响,这是一个必需看重的成绩,燃眉之急是制订 AI 范畴的尺度和办法。

  建议八

  AI 范畴的公司、年夜学、会议及其他好处相干者应颁布介入其任务的女性、多数族裔和其他边沿群体的人数。

  如今许多人熟悉到这一成绩:今朝 AI 范畴研讨人员缺少多样性,但该成绩的严重性缺少细粒度数据的论证。为了树立真正包涵的任务场合,须要对科技行业的任务文明停止更深条理的评价,这就须要数据的支持,而不是仅仅多雇佣女性和多数族裔就完事。

  发明 AI 体系的人自己持有的假定和不雅点必将会影响到 AI 体系。AI 的开辟人员多为男性白人,有着类似的教导配景。今朝已有证据注解这类情形会形成成绩,如语音助手“听不懂”女性声响、AI 助手没法供给有关妇女安康的信息等。文明的多样性研讨在普通科技范畴有必定的停顿,但在 AI 范畴的结果却寥若晨星。假如 AI 要向平安、公正、可以或许普遍运用的偏向成长,人们就不克不及只存眷多样性和包涵性,还要确保 AI 公司的文明是迎接文明女性、多数族裔和其他边沿群体的。

年度研究报告:为AI领域提供的十条建议

  建议九

  AI 行业应聘任盘算机迷信与工程之外的学科专家,并确保他们具有决议计划权。

  跟着 AI 在分歧的社会和机构范畴的运用日增月益,影响愈来愈多的高风险决议计划,人们必需尽力将社会迷信家、司法学者和其他范畴的专家联合起来,配合指点 AI 的创立与整合,构成历久的理论标准。

  正如人们不愿望让律师去优化深度神经收集一样,人们也不该该让 AI 研讨人员可以或许成为刑事司法专家。同理,关于一切须要整合信息技巧的其他社会范畴亦如斯。是以,人们须要司法、安康、教导等范畴的专家介入出去,赞助引导决议计划,确保 AI 不会老练地低估该范畴的庞杂流程、汗青和情况。

  建议十

  AI 范畴须要严厉监视和问责机制,确保 AI 范畴弃旧图新。

  旨在引诱人力资本范畴的品德守则应附有强无力的监视和问责机制。须要进一步展开任务,就若何将高条理的伦理准绳和最好做法原则与平常开辟进程,促销和产物宣布周期停止本质性接洽。

  一些盘算机行业集团机构正在制订品德守则,以确保 AI 开辟的平安与对等。但是,这些做法都是出于团队自愿,普通只要绝对高真个组织才会将请求 AI 开辟人员将"好处放在较高的优先级。然则,配合好处若何决议?将由谁决议?除去由谁代表"好处这一成绩外,AI 代码在品德方面还要联合明白的问责机制,还须认识到 AI 行业在鼓励形式和权利分派方面存在纰谬称的情形。

  译者感言:

  AI 最年夜的成绩是人们没法准确地说明 AI 体系为什么做出那样的决议,没有方法解开它的盖子,窥视外部的任务场景,我们只能选择信任它。这就为我们带来了伟大的挑衅。我们该若何信任 AI 呢?这也是全球"广泛担心的成绩之一。哈佛法学院互联网司法传授 Jonathan Zittrain 已经说:“在技巧赞助下,我们的体系变得愈来愈庞杂,我很担忧人类的自立性被削减。假如我们设置了体系,然后将其忘诸脑后,体系的自我演化带来的效果能够让我们懊悔莫及。对此,今朝还没有明白的品德层面上的斟酌。”

  假如我们可以或许制订行业尺度和品德尺度,并周全懂得 AI 存在的风险,然后树立以伦理学家、技巧专家和企业引导工资焦点的监管机制异常主要。这是应用 AI 为全人类谋福利的最好方法。人工智能的潜力与威逼,其实一向都取决于人类本身。

只要你关注机器人,你就无法错过睿慕课

 
 
 
[ 行业资讯搜索 ]  [ 加入收藏 ]  [ 告诉好友 ]  [ 打印本文 ]  [ 关闭窗口 ]