热度 20
2015-8-13 14:38
971 次阅读|
0 个评论
不久前,人工智能领域的1000多名专家联合发表一封公开信,呼吁在世界范围内禁止“杀手机器人”。著名科学家斯蒂芬·霍金、特斯拉首席执行官埃隆·马斯克以及苹果联合创始人史蒂夫·沃兹尼亚克都在这封信上签了名。 公众对“杀手机器人”并不陌生。好莱坞大片《终结者》系列中,人类研制的高级计算机控制系统“天网”有了自己的意志,将人类视为仇敌,剥夺了数以亿计的生命。导演詹姆斯·卡梅隆在呈献给观众无比震撼的视听享受时,也将一个问题带给荧屏之外的观众:人类是否将面对机器人带来的威胁? 尽管科幻小说、电影从未停止刻画对“杀手机器人”的焦虑和恐慌,但在现实世界中,相关机器人的研发与应用却不断发展。据报道,美国陆军计划以数万机器人代替普通士兵服役,并会在未来继续扩充。尽管目前应用于军事行动中的机器人依旧高度依赖人类的指令,主要从事侦察、爆破、后勤和安保等任务,距离自动化军事机器人尚远。但不难预见,一旦军事机器人突破了依赖人类的“奇点”,它们带来的问题将远远超过技术层面。 军事机器人的辩护者认为,机器人将代替人类成为战争负面因素的承受者。一方面,它们让士兵远离战场,从而避免了人类的伤亡;另一方面,它们代替人类执行杀戮,善良的人们不会被迫去终结他人的生命。此外,军事机器人还将在打击恐怖主义、抗击自然灾害、开展人道主义救援等领域大展拳脚。“那时,打开电视看看哪一方取得了战争的胜利,就像观看一场足球比赛一样轻松。” 当然,还有更“务实”的考虑。与人类士兵相比,机器人的成本要低得多,维护一台机器人的成本预计不到培养一名人类士兵成本的1/10。美军司令部曾表示:“它们不会饥饿,不会恐惧,不会遗忘命令,不会在意身边的伙伴刚刚被射杀。它们会比人类表现得更好吗?当然。” 不过,现实往往会和理想的路径错位。“杀手机器人”代替人类执行杀戮,决定死亡降临到谁的头上,势必产生难以回避的伦理困境。 一直以来,战争的残酷性都受到人类拒不伤害同类的自然本性的抑制。倘若参与战争的是机器人,情况就完全不同了。此外,人类的法律体系如何适用于人类以外的行为主体,这又将是人类社会面临的新挑战。 人们有理由问,“杀手机器人”会不会扮演现代社会里的断头台角色?它们让真正的战场离发动战争的人更为遥远,这也将造成人道主义的幻觉,让战争更易于接受。正如《金融时报》评论认为的,在减少杀人方面,对杀戮的厌恶是重要因素,其作用不亚于任何技术突破。将人工智能插入这条因果链,将弄混“杀人决定”背后的责任。 纵有无数种技术层面的理由证明“杀手机器人”的优越,但如何直面披上人道主义外衣的“杀手”,仍将是难解的谜题。 本文转自人民日报,环球走笔