tag 标签: 杀手机器人

相关博文
  • 热度 20
    2015-8-13 14:38
    971 次阅读|
    0 个评论
    不久前,人工智能领域的1000多名专家联合发表一封公开信,呼吁在世界范围内禁止“杀手机器人”。著名科学家斯蒂芬·霍金、特斯拉首席执行官埃隆·马斯克以及苹果联合创始人史蒂夫·沃兹尼亚克都在这封信上签了名。 公众对“杀手机器人”并不陌生。好莱坞大片《终结者》系列中,人类研制的高级计算机控制系统“天网”有了自己的意志,将人类视为仇敌,剥夺了数以亿计的生命。导演詹姆斯·卡梅隆在呈献给观众无比震撼的视听享受时,也将一个问题带给荧屏之外的观众:人类是否将面对机器人带来的威胁? 尽管科幻小说、电影从未停止刻画对“杀手机器人”的焦虑和恐慌,但在现实世界中,相关机器人的研发与应用却不断发展。据报道,美国陆军计划以数万机器人代替普通士兵服役,并会在未来继续扩充。尽管目前应用于军事行动中的机器人依旧高度依赖人类的指令,主要从事侦察、爆破、后勤和安保等任务,距离自动化军事机器人尚远。但不难预见,一旦军事机器人突破了依赖人类的“奇点”,它们带来的问题将远远超过技术层面。 军事机器人的辩护者认为,机器人将代替人类成为战争负面因素的承受者。一方面,它们让士兵远离战场,从而避免了人类的伤亡;另一方面,它们代替人类执行杀戮,善良的人们不会被迫去终结他人的生命。此外,军事机器人还将在打击恐怖主义、抗击自然灾害、开展人道主义救援等领域大展拳脚。“那时,打开电视看看哪一方取得了战争的胜利,就像观看一场足球比赛一样轻松。” 当然,还有更“务实”的考虑。与人类士兵相比,机器人的成本要低得多,维护一台机器人的成本预计不到培养一名人类士兵成本的1/10。美军司令部曾表示:“它们不会饥饿,不会恐惧,不会遗忘命令,不会在意身边的伙伴刚刚被射杀。它们会比人类表现得更好吗?当然。” 不过,现实往往会和理想的路径错位。“杀手机器人”代替人类执行杀戮,决定死亡降临到谁的头上,势必产生难以回避的伦理困境。 一直以来,战争的残酷性都受到人类拒不伤害同类的自然本性的抑制。倘若参与战争的是机器人,情况就完全不同了。此外,人类的法律体系如何适用于人类以外的行为主体,这又将是人类社会面临的新挑战。 人们有理由问,“杀手机器人”会不会扮演现代社会里的断头台角色?它们让真正的战场离发动战争的人更为遥远,这也将造成人道主义的幻觉,让战争更易于接受。正如《金融时报》评论认为的,在减少杀人方面,对杀戮的厌恶是重要因素,其作用不亚于任何技术突破。将人工智能插入这条因果链,将弄混“杀人决定”背后的责任。 纵有无数种技术层面的理由证明“杀手机器人”的优越,但如何直面披上人道主义外衣的“杀手”,仍将是难解的谜题。 本文转自人民日报,环球走笔
  • 热度 24
    2015-6-3 10:48
    1058 次阅读|
    2 个评论
    据国外媒体报道,近日,一名学者撰文发出警告,称美国军方等机构正在开发的战斗机器人将最终让人类陷入“毫无招架之力”的绝望境地。美国国防部高级研究计划局(DARPA)目前正在推进两个项目,其目的是寻求研制出一种超级智能无人机,其能够在与总部失去联系的情况下仍然自动对目标发起攻击。 在近日发表在著名的《自然》杂志上的一篇文章力,美国加州大学伯克利分校的计算机科学教授斯图尔特·拉塞尔博士(Stuart Russell)对此表达了担忧,称这种做法将打破《日内瓦公约》,并将人类命运置于机械人之手。在 这篇文章中,拉塞尔博士写道:“自动武器系统能够在没有人类干预的情况下自动选择并攻击目标,而当它们将人类也包含进目标清单时,情况就将变得十分致命。现有的人工智能技术已经涵盖了物理平台,感知,运动控制,导航,绘图,战术性决策以及长远规划系统。需要做的是将这些系统整合成为一体。” 他表示:“在我看来,最大的担忧在于这条射出的技术抛物线最后的终点。尽管有着物理学上的极限,但我们可以预料到未来数以百万计的这种智能机器人将被部署。它们所具备的敏捷性和致命性将让人类陷入毫无招架之力的境地,这可不是我们所梦想的未来场景。” 这种机器人被称作“LAWS”,即“致命性自动武器系统”,它们可能将是安装了武器系统的飞行器或是微型坦克,它们将决定哪些人必须死。 DARPA目前正在推动两个项目的实施,它们将有可能最终导致这类“杀手机器人”的研发。其中一项计划名为“快速轻型机器人”(FLA)。其目标是设计一款旋翼机,其能够在没有外界操控的情况下以极高的速度在城市环境或建筑物内部敏捷地飞行。另一个项目则名为“敌对环境下联合作战”(CODE),目标是开发一整队的无人飞行器,它们将能够在完全与总部失去联络的情况下完成一整套完整的攻击程序——搜索目标、锁定、跟踪、攻击打击效果评估。 就在去年,联合国军控高级代表安吉拉·凯恩(Angela Kane)曾经发出警告称我们距离杀手机器人的问世已经仅有一步之遥,并呼吁世界各国予以禁止。然而正如英国政府的反应所代表的那样,各国并不以为然。英国政府外交办公室表示:尽管这项技术的确“存在潜在危险性”,但英国“保留发展这项技术的权利”,以便“保护本国的军|队”。 拉塞尔教授表示:“致命性自动武器系统将违背基本的人类尊严,让机器去选择杀死谁,比如它们可能会被授权杀死‘任何显示潜在威胁行为的人’。我们应当在科学会议上专门组织针对这方面的讨论并对其进行伦理审查。如果我们什么都不做,实际上就是对这种技术持续开发的推进的支持。” 然而,来自英国布里斯托尔大学的机器人专家塞宾·霍特博士(Sabine Hauert) 则表示,公众无需对人工智能技术的发展而感到担忧。她说:“我和我的同事们会在晚宴时间向大家解释,我们并非一群恶魔,我们花费多年时间潜心研发,目的是为了开发那些能够帮助老人,改善健康,让我们的工作环境更加安全和有效率,并让我们能够探索太空和海洋的设备。”
  • 热度 20
    2014-5-16 10:06
    1095 次阅读|
    1 个评论
      日前,联合国就杀手机器人问题进行了第一次公开讨论,考虑是否在其成为问题之前,就先全面预防性的禁止此类武器的开发。 支持预防性禁令的一方认为,全自动的机器人在情况棘手时,可能做出逻辑上合理...          日前,联合国就杀手机器人问题进行了第一次公开讨论,考虑是否在其成为问题之前,就先全面预防性的禁止此类武器的开发。      支持预防性禁令的一方认为,全自动的机器人在情况棘手时,可能做出逻辑上合理,但道德上有缺陷的决定;同时,当这种情况发生时,很难让使用机器人的**或警方,负起直接责任。        反对方则认为,人们不必杞人忧天,全自动的人工智慧究竟是否能成真还是个未知数,而目前的机器人都还是以遥控为主。据悉,短时间内联合国不会为此通过任何决议。