近日,超过12000位知名人士共同签署了一封公开信,他们要求停止人工智能杀戮机器的研发。巧合的是,联合国最近也就这一问题进行了激烈的争论。因为他们认为这类机器人的研发有些走火入魔了,未来可能会带来不可估量的后果。走火入魔?不可估量的后果?有那么严重吗?澳大利亚新南威尔士大学的研究员Jai Galliott是一个机器人研究者,他整个职业生涯都跟军用机器人打交道。他认为这实在是过于敏感了。
在这场大讨论发起之初,他也与签署公开信的人持一样的观点,站在国际机器人武装控制委员会(ICRAC)这一边。不过现在他改变了观点,并给出了以下几个原因。机器与人的关系
那些签署公开信的人都是为了扰乱民心,目的是要禁止自动武器,因为他们认为一旦武器锁定和攻击目标时不再需要人类干预,机器就会有自主意识,过不了多久就会对人类大开杀戒。不过你细想一下就会发现,这种假设现在根本不能成立,人类不可能不参与到杀戮的过程中。确实,机器人也许已经强大到可以杀人,不过就像人类平时所做的那样,机器也需要遵守一个复杂的机制,这就意味着人类没必要天天盯着这一致命系统。不过归根到底,机器人的一切活动都会有人类的身影。当今的科技已经让机器人可以模仿人类的大脑,进行学习和做决定,许多人便担心机器人可以拥有“自主意识”,从而对人类大开杀戒。不过这一过程人类可是深度参与了的。程序员、认知科学家、工程师等在这一自动系统研发过程中扮演了重要角色,如果我们忽略他们的作用,是不是就有些荒谬了?即使去除这些人的影响,难道将军、军|队和政府也会不作为吗?这些人的作用我们也能无视吗?
我们已经有了自动杀戮机器这些人一心想要禁止的机器我们早就研发出来了。澳大利亚海军的舰载近防武器系统(CIWS)早已高度自动化了。这一系统可以每分钟发射上千发弹|药,在反舰导|弹来袭时,可以为水面舰艇提供最后一层防护。另外,除了士兵进行手动操作之外,电脑也可以自动控制其完成作战任务。当处于自动作战状态时,这一近防系统的表现完全可与士兵手动操作相匹敌。它可以自动执行搜索、探测、威胁评估、目标获取和锁定和击毁目标等一系列战术动作。如果这一近防武器系统已经属于杀人机器了,也应该被禁。但我们没听说过谁对这一系统有过异议,因为它们远在天边,眼不见心不烦,而且只有在敌方武器高速来袭时才会进行反击。正因为如此,与常规战斗相比,它们失手杀人的几率几乎为零。所以为什么我们不把着力点放在现有的法律上呢?制定相关法律条款限制这类武器的使用范围不就好了?真正应该担心的是拥有自主意识的机器人这样看来,真正促使这些人强烈反对机器人的原因,并不是杀戮过程没有人类干预,而是怕机器人未来拥有自主意识。考虑到上个世纪以来人类科技的发展速度,有这样的疑虑也无可厚非。从莱特兄弟第一次试飞到飞向太空,我们只用了不到七十年,所以如果有足够的时间,创造一个真正的智能机器人并非不可能。不过也许我们完全不用担心,因为横在研发人员面前的困难很难克服。首先,我们每个人都拥有独一无二的灵魂,机器人无法复制这一点。另外,通过逻辑论证我们了解到人类的脑活动并没有固定的算法,这也是机器人无法习得的。
现在我们所能构想的系统,无论是否具有自主学习能力或者高度复杂的操作,都是编程和人工智能的产物,其背后都是程序员和系统设计师,拥有自主意识的智能机器人永远不会出现。一旦人们意识到这一点,对所谓杀戮机器的反对就完全是无源之水无本之木。谁会遵守游戏规则?联合国的禁令事实上也并没有用。看看那些被反步兵地|雷夺走一条腿的人吧,联合国的禁令只是一纸空文,那些坏人才不按常理出牌。我们该做的,是为更有效和实际的智能机器人监管法规而努力。
关闭
站长推荐
/2
文章评论(0条评论)
登录后参与讨论