设万维读者为首页 广告服务 技术服务 联系我们 关于万维
简体 繁体 手机版
分类广告
版主:白夫长
万维读者网 > 军事天地 > 帖子
人工智能武器比核弹还危险 因无情感毫不手软
送交者: 力挽狂澜 2018年07月18日20:58:45 于 [军事天地] 发送悄悄话

001.jpg

 资料图:俄军装配有机枪的作战机器人正在测试中

  英国《明星日报》网站7月15日报道称,从SIRI(苹果公司在其产品上应用的一项智能语音控制功能)到自动驾驶汽车,人工智能正日益侵入我们的日常生活。

  报道称,这项技术还可能会启动一场自主的武器军备竞赛,机器已经能够在没有人类干预的情况下自动选择和打击目标。

  网络安全专家罗曼·扬波利斯基博士披露了人类是如何通过追求这项技术将自己置于灾难边缘的。

  他解释说:“人工智能比核战争对人类构成了更大的危险。”

  “核武器很危险,但是它们只是工具——一旦爆炸,就不再有另外的敌对关系。”

  “然而,人工智能不仅是一种工具,而且是一种媒介——它处于一种持续的动态关系之中,而非是单一的危险局势。”

  这名路易斯维尔大学的博士说:“人工智能能够在多个领域构成危险,而且可以动态地适应我们试图消除危险所做的一切努力。”

  报道称,人们担心,一旦主要军事大国开始推进人工智能武器研发,一场全球性的自主军备竞赛将是不可避免的,这种技术轨道的终点是大规模生产的廉价的杀人机器。

  报道称,一个超级智能的人工智能机器不可能展现出爱或恨这样的人类情感,人类也没有理由预期人工智能机器会有意识的仁慈或心怀恶意。

  扬波利斯基博士描述了人工智能会构成危险的两种最有可能的情况:“机器想要获得权力或是类似的东西这种情况不太可能发生——更有可能发生的情况是,黑客和恐怖分子恶意使用,或是有人明确控制机器来执行此类任务。”

  他说:“一种尤其需要关注的情形是,军方的人工智能机器遭到黑客攻击。”

  报道称,另一个值得关注的问题是,人工智能原本被设定做某种好事,但是它为实现自己的目标开发出一种具有破坏性的执行手段。

  例如,如果一个超级智能系统的任务是完成一项雄心勃勃的地球工程项目,其副作用可能是对生态系统造成严重破坏,甚至将人类试图阻止其的行为视为一种需要解决的威胁。

  尽管有人仍对完全自主的人工智能机器是否能够真正实现持怀疑态度,扬波利斯基博士相信这将会实现,这也是越来越多科学家的共识。

  他说:“这很可能会在我们的有生之年实现——大多数人的预测是2045年。”

  斯蒂芬·霍金、埃隆·马斯克、史蒂夫·沃兹尼亚克、比尔·盖茨和许多其他科技大佬,最近都对人工智能构成的危险表示担忧。

0%(0)
0%(0)
标 题 (必选项):
内 容 (选填项):
实用资讯
回国机票$360起 | 商务舱省$200 | 全球最佳航空公司出炉:海航获五星
海外华人福利!在线看陈建斌《三叉戟》热血归回 豪情筑梦 高清免费看 无地区限制
一周点击热帖 更多>>
一周回复热帖
历史上的今天:回复热帖
2017: 中印对峙深层原因你可能想不到 zt
2017: 马云在印度投资30亿美元,助纣为虐,应
2016: 南海仲裁对美国的不利远远大于中国
2016: 冒个泡,很久没来了,因为最近的局势有
2015: 令人毛骨悚然:四清运动中残忍的批尸闹
2015: 毛泽东社会主义工业化道路和三农问题
2014: 爱国贼定律
2014: 大流氓毳折腾和他的女人们(多图)
2013: 俄媒:中俄新轰明显有别 中国采用超音
2013: 镇国神剑:巨浪-2发射和攻击成功 可打