本文编译自the Guardian原题目为I'm a pacifist, so why don't I support the Campaign to Stop Killer Robots的文章。
制止杀伤性机械人活动呼吁结合国制止研发和应用主动兵器:无人监控下辨认,追踪和进击目的的主动兵器。该活动组织者与一些有名AI研讨员配合制造了一个惊动的视频,并于周一宣布。 视频向我们展示了普遍应用主动兵器所带来的反乌托邦式的将来。
我很愉快看到我的同事正在尽力确保AI技巧运用于无益于人类社会的范畴。 然则,我深入疑惑这类止于情势的活动能否有用。 虽然我以为本身是相对的战争主义者,但我关于签订这项禁令持保存立场。而我信任持保存立场的也绝非我一人。
起首,拥戴这项禁令的国度都没法肯定应当制止主动化照样AI。是以,这项禁令又若何可以或许阻拦否决它的国度应用主动兵器。关于惯例兵器和核兵器的禁令是有用的,这是因为自然的进入壁垒:制作这些兵器所需的原资料和装备很难取得,担任任的国度可以经由过程法则和制裁掌握这些兵器。比拟之下,有些人能够会说AI的应用曾经相当普遍,并且它照样主动兵器的焦点技巧。 是以,想经由过程法则和禁令掌握这类兵器难上加难 - 例如收集战斗。
想一想视频中描写的“杀手无人机”与the Guardian上呼吁禁令的文章。即便在明天,任何互联网拜访者都可以重建无人机所需的人脸辨认技巧:一些最早进的“预练习收集”都邑成为地下资本。 跟着技巧的进一步成长,工作将变得加倍轻易。
AI的进入壁垒很低。是以即便结合国和一些国度赞成这项禁令,也没法阻拦其他否决这项禁令的国度推销和安排AI技巧。 终究,最好的成果是禁令获得成功,但禁令的拥戴者会支付沉重的价值。而最坏的情形是禁令约束了“大好人”的四肢举动,“坏人”却依然肆意妄为。
作为一位AI研讨人员,我异常恶感应用反乌托邦来衬着这整件事,就像the Guardian报导的这个视频。 这些视频让人觉得不安。在我看来, 应用“雏菊女孩”式的活动宣扬来激起人们对AI技巧的恐怖,更像是为了扑灭年夜众的情感,而不是激发年夜众的思虑。
鉴于对禁令有用性的担心,AI研讨人员应当寻觅更积极的技巧处理计划,以削减潜伏的AI技巧滥用。 例如,我们于2017年3月初在亚利桑那州立年夜学举行了一个研究会,主题为“AI带来的挑衅:瞻望将来,清除隐患”。 很多知名的迷信家,技巧专家和伦理学家加入了此次研究会,其目标就是评论辩论若何避免AI技巧的滥用(包含致命主动兵器)。
今朝,研究会的主题之一就是应用AI技巧防备AI的歹意应用。 这能够包含所谓的“AI保卫体系”,它可以监测AI而且做出进攻回应。 即便这类体系不克不及完整遏制AI的滥用,至多可以反应这些成绩。
重申一下,我以为本身是战争主义者,一向反战和支撑军控。 假如这项禁令不只止于情势,并且异常有用;不只扑灭了年夜众的情感,还激发了年夜众的思虑,我将举双手赞同。
免责声明:为了充足表露,请许可我声明我的一些基本研讨(关于人类认知的AI)由美国国防部赞助机构(如水师研讨办公室)赞助。 然则,我在文中不雅点是客不雅的,与赞助方有关。美国的国防赞助机构赞助了年夜量基本研讨,包含介入禁令活动的研讨人员。