当前位置: 首页 » 行业资讯 » 机器人»马斯克再提醒:不受监管的AI比核武器更危险
   

马斯克再提醒:不受监管的AI比核武器更危险

 46.1K
     [点击复制]
放大字体  缩小字体 发布日期:2017-08-14   浏览次数:597
核心提示:  8月14日新闻,据Futurism报导,科技年夜亨伊隆马斯克(Elon Musk)不久前在推特上宣布了一张照片,激发人们对人工智能(AI)平安性的争辩。其时马斯克宣布了有关赌钱上瘾告白的图片,下面写着终究机械会赢,明显

马斯克再提醒:不受监管的AI比核武器更危险

  8月14日新闻,据Futurism报导,科技年夜亨伊隆·马斯克(Elon Musk)不久前在推特上宣布了一张照片,激发人们对人工智能(AI)平安性的争辩。其时马斯克宣布了有关赌钱上瘾告白的图片,下面写着“终究机械会赢”,明显他不只仅指赌钱机。更主要的是,马斯克称AI带来的风险比朝鲜核兵器更年夜。

马斯克再提醒:不受监管的AI比核武器更危险

  在随后的推文中,马斯克具体论述了对AI体系开辟停止监管的需要性。这与他本月早些时刻所说的话相照应,其时他说:“我以为,任何对"组成风险的工作,至多当局应当有所懂得,由于当局的义无之一就是确保公共福利。没有人爱好遭到监管,但对"有风险的任何器械(包含汽车、飞机、食物和药品等)都应当遭到管束,AI也是如斯。”

  阅读对马斯克推文的评论发明,仿佛年夜多半人都在某种水平上赞成马斯克的看法。名为丹尼尔·佩德拉萨(Daniel Pedraza)的用户以为:“我们须要一个顺应性较强的框架,不须要固定的规矩、司法或准绳,这对治理AI有利益。这个范畴正在赓续地变更和演进,任何固定的规矩很快就会掉效。”

  很多专家都不肯意AI成长得太快。它形成的威逼听起来能够有点儿像科幻小说中的场景,但它们终究能够被证实是有用的。像史蒂芬·霍金(Stephen Hawking)如许的专家早就收回正告,传播鼓吹AI有终结人类的能够。在2014年采访中,这位有名的物理学家说:“AI的成长能够预示着人类的终结。”他乃至以为主动化的分散对中产阶层是一种无害的力气。

  另外一位专家、metaMed Research的首席迷信官迈克尔·瓦萨尔(Michael Vassar)指出:“假如远超人类的通用人工智能没有遭到谨严监管,可以确定的是,人类将在异常短的时光内灭尽。”

  很明显,至多在迷信界,AI的自在成长能够不相符人类的最好好处。许多人曾经开端着手制订这些规矩,以确保AI的成长“符合品德标准”。电气与电子工程师协会提出了他们的第一份规矩草案,愿望能引诱开辟人员朝着准确的偏向成长。

  另外,在当局参与之前,科技巨子们也正在制订自我监管规矩。来自谷歌、亚马逊、微软、IBM和Facebook等年夜型科技公司的研讨人员和迷信家曾经开端评论辩论,以确保AI造福于人类,而不是成为人类的生计威逼。

  固然,要想到达足以威逼人类生计的水平,AI还有很长的路要走。但是,AI的提高是日新月异的。有名将来学家雷·库兹韦尔(Ray Kurzweil)预言,盘算机将在2045年变得比人类更聪慧。但是,他其实不以为这是件恐怖的事。或许,科技公司的自我监管将足以确保这些担心变得毫有意义,或许终究能够须要当局的赞助。不论你的感到若何,如今开端这些对话不算庸人自扰。但与此同时,也不要过于担忧,除非你是个有竞争力的玩家。

只要你关注机器人,你就无法错过睿慕课

 
 
 
[ 行业资讯搜索 ]  [ 加入收藏 ]  [ 告诉好友 ]  [ 打印本文 ]  [ 关闭窗口 ]