日前,据外媒快公司报道,一位来自加州的机器人专家、艺术家,嗯,叫 Alexander Reben,打造了一款机器人,长下面这个样子。
然后,这款机器人的作用,注意,是唯一的作用,就是对人进行一个伤害。 #此处自带黑人问号脸
好啦,倒也不是让你缺胳膊断腿的伤害,至少它现在能做的,不过是当你将手指头放在某一范围内,它会突然地给你的指头扎上一针。而有意思的是,这位名叫Alexander 的设计者故意将伤害的指令进行了随机设置,因而,当你将手指置于这机器人的地盘之下,你也不知道这位机器人版的容嬷嬷会不会突然地给你来一下 。 #玩的就是心跳
所以为什么要打造这样一款应该没人会买也着实不希望量产的机器人呢?
Alexander表示, “此前,没有人想过真的去打造一款为伤害人类而诞生的机器人,(但机器人伤害人的隐患是切实存在的),我要把人们脑海中的隐忧化为现实,因为只有当它真正以某种实体存在的时候,人们才会更迫切直白地去面对它,而不是安慰自己不过是假想敌,就不会只是单纯地发表一些高谈阔论了。”
似乎,这一看似反人类的行为,却恰恰是一番用心良苦,不知道这个脑回路你能不能理解。反正,来自麻省理工学院媒体实验室的 Kate Darling,一位 “机器人技术对于社会的短期影响”课题的研究人士对于Alexander的实验性发明表示赞赏,不过,她才不会把手放在机器人的案板上呢。
在画风突变之前,Alexander的得意之作,是一款叫做 BlabDroid的机器人。它小巧无害的造型,能激发人们向它倾诉。而多年以来,Alexander一直在探索人与科技之间的关系,以及科技如何帮助我们更好地去理解人性。
他已经敏锐地意识到,人们正变得越来越害怕机器人,要么是担心它们会给自己带来生理上的伤害,要么是看到了在某些领域可能被取代的悲催未来。 “机器人会干掉人类”或者 “机器人会抢走我们的饭碗”已经是近来谈到类似话题时的常用句型了。
Alexander想要迫使人们在这些可能发生的问题、威胁到来之前,认真地去寻求解决方案。通常来说,这是所谓学者专家们应该考虑的问题,但是Alexander认为,没有哪一家研究机构能够打包票说,自己打造的机器人不会在未来的某一天伤害到人类。同样的,也没有哪家公司会刻意地去打造一款以伤害人为目的的机器人。 “没人会想称为「首家害人机器人公司」”。
鉴于Alexander的机器人杀伤力着实有限,并不至于让人缺胳膊少腿,更不可能将你碾轧成肉末,似乎倒也不会引起太强烈的反对声。不过Alexander希望更多法学、哲学、工程学、伦理学领域的学者专家能注意到他所打造的这个怪家伙,“我希望这些跨学科的人们能走到一起来解决这个问题,因为这不是依靠单一某领域的力量就能搞得定的。”他想,律师会就如何界定对人类造成伤害的机器人的责任问题展开辩论,而伦理学家会思考这样一个实验是否是合理的,哲学家会问为什么会有这样一台机器人存在。
1942年,美国著名的科幻小说家艾萨克·阿西莫夫(Isaac Asimov,1920 - 1992)曾在《我,机器人》这本小说中,提出了著名的“机器人三定律”,即
第一,机器人不得伤害人类,或坐视人类受到伤害;
第二,除非违背第一法则,机器人必须服从人类的命令;
第三,在不违背第一及第二法则下,机器人必须保护自己。
这三条定理不仅成了后续科幻作品所遵从的定理,对机器人学也影响重大。然而,我们也有充分的理由相信,艾萨克的这三条铁律并不能真的保护人类免于来自机器人的伤害。
即使是对这一实验表示青睐的Darling教授也指出,不管是不是在实验状态下,Alexander的机器人只要是伤害到了任何人,那Alexander,作为这台机器人的制造者都要为此承担道德上的责任。
“当自主机器人伤人时,我们可能会渐渐地觉得自己不需要承担伤人的道德责任。当然啦,法律上的责任是跑不掉的。我们越能预期机器人的行为时,我们就越不会受到来自机器人的“故意”伤害?”同时,她还认为随着科技的不断进步,我们也要以新的目光去审视机器。
“从责任这个立足点来说,机器人将不会仅仅只是工具,而是我们本身的一个外延拓展,而随着它们自主技术的不断提高,从某种角度上说,我们应该像对待动物般对待它们,毕竟我们也不能总是预期它们的行为。”
而对于Alexander而言,他希望人们能正视这些问题。“我想要人们来对抗这种危险的实体,这也许能提高人们的这种意识,而不仅仅再停留于哲学层面的讨论。总会有不可预料的情形出现,而我们要走在更前面一些。”