热度 15
2015-7-31 12:02
822 次阅读|
0 个评论
近日,超过12000位知名人士共同签署了一封公开信,他们要求停止人工智能杀戮机器的研发。巧合的是,联合国最近也就这一问题进行了激烈的争论。因为他们认为这类机器人的研发有些走火入魔了,未来可能会带来不可估量的后果。走火入魔?不可估量的后果?有那么严重吗?澳大利亚新南威尔士大学的研究员Jai Galliott是一个机器人研究者,他整个职业生涯都跟军用机器人打交道。他认为这实在是过于敏感了。 在这场大讨论发起之初,他也与签署公开信的人持一样的观点,站在国际机器人武装控制委员会(ICRAC)这一边。不过现在他改变了观点,并给出了以下几个原因。 机器与人的关系 那些签署公开信的人都是为了扰乱民心,目的是要禁止自动武器,因为他们认为一旦武器锁定和攻击目标时不再需要人类干预,机器就会有自主意识,过不了多久就会对人类大开杀戒。 不过你细想一下就会发现,这种假设现在根本不能成立,人类不可能不参与到杀戮的过程中。确实,机器人也许已经强大到可以杀人,不过就像人类平时所做的那样,机器也需要遵守一个复杂的机制,这就意味着人类没必要天天盯着这一致命系统。不过归根到底,机器人的一切活动都会有人类的身影。 当今的科技已经让机器人可以模仿人类的大脑,进行学习和做决定,许多人便担心机器人可以拥有“自主意识”,从而对人类大开杀戒。不过这一过程人类可是深度参与了的。 程序员、认知科学家、工程师等在这一自动系统研发过程中扮演了重要角色,如果我们忽略他们的作用,是不是就有些荒谬了?即使去除这些人的影响,难道将军、军|队和政府也会不作为吗?这些人的作用我们也能无视吗? 我们已经有了自动杀戮机器 这些人一心想要禁止的机器我们早就研发出来了。 澳大利亚海军的舰载近防武器系统(CIWS)早已高度自动化了。这一系统可以每分钟发射上千发弹|药,在反舰导|弹来袭时,可以为水面舰艇提供最后一层防护。另外,除了士兵进行手动操作之外,电脑也可以自动控制其完成作战任务。 当处于自动作战状态时,这一近防系统的表现完全可与士兵手动操作相匹敌。它可以自动执行搜索、探测、威胁评估、目标获取和锁定和击毁目标等一系列战术动作。 如果这一近防武器系统已经属于杀人机器了,也应该被禁。但我们没听说过谁对这一系统有过异议,因为它们远在天边,眼不见心不烦,而且只有在敌方武器高速来袭时才会进行反击。 正因为如此,与常规战斗相比,它们失手杀人的几率几乎为零。 所以为什么我们不把着力点放在现有的法律上呢?制定相关法律条款限制这类武器的使用范围不就好了? 真正应该担心的是拥有自主意识的机器人 这样看来,真正促使这些人强烈反对机器人的原因,并不是杀戮过程没有人类干预,而是怕机器人未来拥有自主意识。 考虑到上个世纪以来人类科技的发展速度,有这样的疑虑也无可厚非。从莱特兄弟第一次试飞到飞向太空,我们只用了不到七十年,所以如果有足够的时间,创造一个真正的智能机器人并非不可能。 不过也许我们完全不用担心,因为横在研发人员面前的困难很难克服。首先,我们每个人都拥有独一无二的灵魂,机器人无法复制这一点。另外,通过逻辑论证我们了解到人类的脑活动并没有固定的算法,这也是机器人无法习得的。 现在我们所能构想的系统,无论是否具有自主学习能力或者高度复杂的操作,都是编程和人工智能的产物,其背后都是程序员和系统设计师,拥有自主意识的智能机器人永远不会出现。一旦人们意识到这一点,对所谓杀戮机器的反对就完全是无源之水无本之木。 谁会遵守游戏规则? 联合国的禁令事实上也并没有用。看看那些被反步兵地|雷夺走一条腿的人吧,联合国的禁令只是一纸空文,那些坏人才不按常理出牌。 我们该做的,是为更有效和实际的智能机器人监管法规而努力。