写于 2017-09-02 05:03:18| 千赢国际登录| 总汇
超过一千名科学家,人工智能专家,研究人员和技术领导人签署了一封公开信,敦促世界各国政府阻止“进攻性自主武器”的发展,以防止“军事AI军备竞赛”的开始。公开信将提交生命的未来研究所,在周二在阿根廷布宜诺斯艾利斯举行的“国际人工智能联合会议”开幕式上。其中包括技术和科学领域的几位知名人士,如特斯拉首席执行官埃隆马斯克,诺姆乔姆斯基,斯蒂芬霍金和苹果联合创始人史蒂夫沃兹尼亚克。在信中,提交人反对人工智能武器。去年,马斯克还在一条推文中警告人工智能的危险性,并称其“可能比核武器更危险。”“今天人类的关键问题是,是否要开始全球人工智能军备竞赛或阻止其启动,”摘自信中的内容。 “如果任何主要的军事力量推动人工智能武器的发展,全球军备竞赛几乎是不可避免的,这种技术轨迹的终点是显而易见的:自主武器将成为明天的卡拉什尼科夫冲锋枪。”这封信的作者进一步论证说,人工智能可以用来使战场对人类更安全,但是人工智能武器的开发将使军阀,恐怖分子和独裁者更容易进行种族清洗,暗杀甚至控制民众。值得一读Bostrom的Superintelligence。我们需要对AI非常小心。可能比核武器更危险。 —伊隆马斯克(@elonmusk)2014年8月3日这也是流行文化中的未来。其中一个最突出的例子是“终结者”电影系列,一部名为天网的虚构人工智能电脑变得自我意识,试图用核武器和半机械人消灭人类。这不是第一次采取积极措施来防止未来的军备竞赛。 1967年,一些国家签署了“外空条约”,其中参与国如美国,英国和俄罗斯同意不将大规模杀伤性武器放置在地球轨道,月球或太空任何地方。迄今为止,已有103个国家成为该条约的成员国,至少有20个国家尚未完成批准程序。