手机端
当前位置: 首页 > 奇客趣闻 > 科技探索 > 前沿发明

霍金等人联名警告 禁止“AI军备竞赛”(图文)

  据国外媒体报道, 顶尖的人工智能研究人员警告大众,“AI军备竞赛”可能对人类是灾难性的,并敦促联合国审议关于禁止“进攻性自控制武器”的提案。生命未来研究所给出的公开信表示,那些自动&l

据国外媒体报道, 顶尖的人工智能研究人员警告大众,“AI军备竞赛”可能对人类是灾难性的,并敦促联合国审议关于禁止“进攻性自控制武器”的提案。生命未来研究所给出的公开信表示,那些自动“选择并打击目标,无需人工干预”的武器可能成为明天的AK 47,成为助长战争、恐怖主义的全球不稳定因素。这封公开信由许多科技界的知名人物联署,其中包括斯蒂芬·霍金、伊隆·马斯克和美国哲学家诺姆·乔姆斯。

该公开信表示,“人工智能(AI)技术已经达到如果没有法律约束,几年内就可部署的程度,而不是几十年。” 该信表示带有武器的四轴无人机就是一个很好的例子。虽然人工智能武器可以减少战场上的人员伤亡,但这本身就是一个错误,因为它会降低走向战争的门槛。

“不像核武器,AI武器无需昂贵或难以取得原料,所以他们会变得无处不在。廉价到所有的军事强国都会大批量生产。 他们出现在黑市和恐怖分子手中只是时间的问题。”

“AI军备竞赛”可能对人类是灾难性的

“AI军备竞赛”可能对人类是灾难性的

这封信结尾警告AI武器的发展可能会损害人工智能领域的发展,并引起“公众的强烈反对”,将阻碍有益的人工智能研究。联署人表示“应对超越人类控制的进攻武器采取禁令”,并敦促联合国采取行动。

联署人表示“应对超越人类控制的进攻武器采取禁令”

联署人表示“应对超越人类控制的进攻武器采取禁令”

目前半自动武器系统已经大幅增加,美国空军预测,“到2030年机械性能将极大增强,人类反而将成为最弱的系统组件。” 无论是人工智能的批评者和支持者都表示,人工智能武器系统的界限很难拿捏。

公开信的其他联署人还包括苹果联合创始人史蒂夫·沃兹尼亚克,Skype的联合创始人Jaan Talinn,Demis Hassabis,英国人工智能公司DeepMind的CEO。

相关推荐

查看更多