人工智能研究人员警告说,人工智能方面的军备竞赛可能是人类的灾难,并敦促联合国禁止各国研发“自主性进攻武器”。未来生命研究所(FLI)也发布了一份由斯蒂芬•霍金,伊隆•马斯克和诺姆•乔姆斯基等名人签署的一封公开信,这份公开信警告说,自动选择并打击目标,无需人工干预的AI自主性武器,可能成为明日的A|K|4|7,助长战争,恐怖主义和全球不稳定。信中指出,人工智能(AI)技术已经达到一个地步,可以自主部署武器系统,实际上,如果没有法律制约,机器人大战就将在几年内爆发,而不是几十年后,比如带有机qiang和榴|弹发射器的履带式机器人已经出现在局部冲突战场当中,虽然它使用自主武器可以减少战场上的人员伤亡,但是这本身就可能就是一个错误,因为它会降低走向机器战争的门槛。公开信指出,自主武器是暗杀盛行,不稳定国家最理想的武器,这些武器不像核武那样昂贵或难以取得原料,所以它们会变得无处不在,并且由军事强国大批量生产,这些武器出现在黑市和恐怖分子手中只是时间问题,地区军阀也可能借助这种武器犯下种族清洗等罪行。目前,半自治的武器系统已经激增,美国空军预测,到2030年机械性能也将提高到如此地步,人类自身将成为一个最弱的组件系统。其他签署FLI公开信的名人,包括苹果联合创始人史蒂夫•沃兹尼亚克,Skype联合创始人Jaan Talinn,DeepMind CEO Demis Hassabis等人。
关闭
站长推荐
/2
文章评论(0条评论)
登录后参与讨论