tag 标签: 杀人机器人

相关博文
  • 热度 13
    2016-1-22 10:18
    1277 次阅读|
    0 个评论
    据外媒报道,日前在瑞士达沃斯举行的世界经济论坛上,人工智能专家就自动化武器—杀人机器人的未来展开探讨。英国武器制造公司BAE的董事长Roger Carr表示,尽管在去年特斯拉的马斯克等人呼吁禁止自动化武器,但目前全球已有40个国家已在研发这种技术,其中包括美国。 Carr称美国是自动化武器研究领域的领导者,但也是世界上唯一一个禁止使用这种武器的国家,虽然美国只是从2012年开始颁布禁令。 联合国军控高级代表Angela Kane表示,尽管从2014年联合国就建议各国制定国际法律禁止使用自动化武器,但一直未取得显著进展。 她指出政策制定者未能跟上这项技术的发展步伐,关于杀人机器人或“自动化武器”甚至没有一个准确的定义。 加州大学伯克利分校的计算机科学教授Stuart Russell去年曾在一封公开信上签名,呼吁禁止使用自动化武器。他表示在18个月到两年时间内,“如果人类选择下达指令消灭某个城市中的所有男性,它们完全有能力做到。” 尽管目前还没有具体的法律来约束使用自动化武器,但所有参加会议的专家们一致认为,让机器人掌握生杀大权将会破坏国际战争公约。
  • 热度 19
    2015-8-6 10:15
    960 次阅读|
    0 个评论
    据国外媒体报道,上周一一千多名人工智能研究人员联合签署了一份公开信,催促联合国禁止自主武器的研发和使用。这封公开信在阿根廷布宜诺斯艾利斯召开的2015年人工智能国际联合会议上展示,签署的科学家都是研究人工智能的著名科研人员,例如谷歌研发主管皮特•诺维格(Peter Norvig)、特斯拉和SpaceX公司的CEO埃隆•马斯克(Elon Musk)以及物理学家斯蒂芬•霍金(Stephen Hawking)。 自上周一起,又有超过16000人签署了这封公开信。 这封信阐述了自主武器或者无需人类在控制端操作即可定位和开火的武器的研发可能会引发“战争的第三次革命”,类似前两次武器和核弹的创造。 虽然杀人武器听上去非常可怕,但由成熟的人工智能驱动的武器或可能比人类战士更适合,其实存在某些真实的原因。自主武器可以让人类士兵远离火线突击,潜在的减少战争的伤亡人数。杀人机器人其实是更好的战士,他们更快、更精确、更强大,也可以承受比人类更多的物理损伤。 人工智能研究人员、文章《人工智能:现代方法》的合作作者斯图尔特•罗素(Stuart Russell)是禁止自主武器的提倡者之一。即使他担心自主武器可能落入坏人手里,但他承认自主武器存在某些更有效的论点。“我有很长一段时间在思考我应该采取什么态度,” 罗素说道。“它们可以异常的高效,它们具有比人类更快的反应速度,也更精确。它们没有身体因此无需生命支持。我认为这些是很多不同**,不仅仅是英国也包括美国研发自主武器的主要原因。” 自主武器不会害怕、怯场或者大发脾气。他们可以冷静的完成任务,而不会因为情绪左右自己的行为。 电气与电子工程学会期刊IEEE Spectrum的埃文•艾克曼(Evan Ackerman)写道,可以对自主武器进行编程要求它遵循主导战争的交战准则和其它规则。 “如果一个恶意目标也有武器,且武器对准你,你可以在对方武器开火之前交战,而非之后为了自我保护才交战。” 艾克曼写道。“机器人可能更加警觉,你可以对它们进行编程,让它们不要以致命的火力与恶意目标交战,除非他们具有一定的把握(你可以设定所需的确定性程度)对方已经主动开火。” 机器人论理学家肖恩•韦尔什( Sean Welsh)对这一观点也做出了回应,他表示杀人机器人“将完全关注于国际人权法的约束,因此理论上来说比人类战士更可取,因为后者可能会惊慌、寻求报复或者把一切弄得一团糟。” 艾克曼建议废除科技“非好即坏”这一误解,而是关注科技被使用的方式。他建议提出一种让“自主武器机器人更有道德”的方法。“任何技术都可以用于作恶,” 艾克曼写道。“如果问题是人类将技术用于作恶的意愿性,那么禁止这项技术并不能解决这个问题,我们需要一份更大的请愿书。” 这份请愿书的贡献者之一、美国丹佛大学约瑟夫-克贝尔国际研究学院希瑟•罗夫(Heather Roff)对此并不赞同。“美国军|队并不想要放弃智能武器,” 罗夫说道。“坦白来说,我并不想要他们放弃。这些是有区别的武器。然而,我们也希望限制那些没有人类控制的不同武器的向前发展。” 很有可能这次近期的公众强烈抗议还不足以阻止国际战争武器,目前已经研发了半自动武器来自主鉴别和瞄准目标。其中很多,例如澳大利亚海军的反导|弹和近战武器系统,并未得到任何详细检查或者反对。 “这是为什么?因为它们被用于海上且当对方是以非常恶意的方式靠近的情况时,”国防研究人员杰•加约(Jai Gaillot )这样说道。“也就是说,它们只被部署在杀死无辜平民的风险几乎为零的背景和环境里,而非常规的战斗过程中。” 也许现在已经无法阻止历史先前滚动的车轮,“阻止人们研发这类武器系统的障碍已经非常小了。”
  • 热度 12
    2015-8-5 13:51
    897 次阅读|
    0 个评论
    人工智能一定会使战争更加惨烈吗? 人们担心迅速发展的人工智能如果用于战场,其后果将十分严重,它可以提高杀人机器的效率,同时承担的责任更少。上周数千名科学家和技术人员发表了一份公开信上,呼吁禁止使用人工智能控制的致命性武器。 但与你想象的不同,专家们对机器人杀人一事存在意见分歧。 包括Elon Musk、霍金和Steve Wozniak等在内的许多优秀人工智能研究员、知名科学家、企业家都签署了那份公开信。信上表示: “人工智能技术已经成熟,如果法律允许,将于近几年内而不是几十年内实现人工智能系统部署。另一方面其危险系数较高:自动化武器可称得上是仅次于导|弹和核武器的发明的第三次战场革命。” 近年来人工智能发展迅速,特别是机器学习领域。该领域通过大量数据让计算机学习识别复杂、微妙的模式,在现实世界中使用这些技术将会引发道德争议。与此同时,先进的军事技术可以实现远程控制。例如,无人机和拆弹机器人的使用,让人们预想在未来可以实现这些技术的自动化。 2012年,美国国防部发布禁令:10年内禁止研发和使用“自动化和半自动化”武器。今年年初,联合国举行会议讨论自动化致命性武器以及禁令实施的可行性问题。 尽管军用无人机和机器人自动化性能还可以升级,但是有人认为不经人类控制而让全自动化机器实施关键任务的想法,其实是无稽之谈。虽然人工智能领域仍存在许多基本挑战,但全自动化武器所需的技术何时成熟仍是未知数。 加州理工州立大学哲学专家Patrick Lin认为:“我们在人工智能领域取得了新的进展,仍有许多人怀疑全自动化时代是否能到来。没有人可以完美的预测未来。” 他说:“这封信在引发人们警觉性方面十分有用,但它也不完全是为了引发讨论,它试图终止争议,并认为‘我们已经找出了答案,你只需要支持我们的意见’。” 公开信中没有提及的一个问题是,在一些情况下自动化武器能否证明其可以帮助减少不必要的伤害。因为他们不会疲劳,犯错更少,也不会有战士的情绪化影响。 有人希望人工智能系统更加智能,但又担心如果失去控制,会对我们的防御系统带来极大损失。 许多人工智能专家关注这个问题,仍有一些科学家认为这只是放错位置的资源。例如,有人认为如果想避免人工智能给金融市场、空汇总交通系统等带来严重后果,可以让那里的计算机不升级人工智能。 另外,Lin认为不受控制的杀人机器人概念令人担心,但它毕竟离我们还远,或许自动化武器更应该引起人们的关注,毕竟它是一个更加紧迫的现实问题。