一家新西兰的人工智能公司正在研制世界上最愤怒的机器人,其目的是帮助各种商业公司理解和安抚愤怒的顾客。这家名为Touchpoint的公司已经在该项目上投入了超过23万英镑,预计在今年年底就可见到成品。那么,我们是否应该开始为机器人革命做准备了呢?还不至于。机器人只能模拟愤怒尽管有所争议,但Touchpoint公司的机器人并不会感受到真切的愤怒。相反,开发者在这些机器人的数据库中上传了数百万愤怒客户的互动数据,机器人被设定为模拟和重复这些客户的对话。斯图尔特·阿姆斯特朗(Stuart Armstrong)博士是牛津大学牛津马丁学院人类未来研究所的研究员,他表示愤怒是机器人相对较容易模仿的感情之一。阿姆斯特朗说:“人类的愤怒并没有太多分别。如果某人愤怒了,他可能只会厉声地辱骂你,其中的互动关系并没有太多微妙之处,你不需要处理任何复杂的信息。愤怒很容易模仿,不需要进行深究。”Touchpoint公司的愤怒机器人将只能表达基本的愤怒行为,而且与真实人类的愤 怒行为具有显著不同。阿姆斯特朗解释道:“我们为什么会害怕愤怒的人?因为他们可能会做出某些愚蠢的事情,或者大打出手。机器人并不会去殴打电话另一端的 人,或者在推特上传播愤怒的消息。它们不会做出你想象中真实人类愤怒时会做出的事情——除非它们的程序设定为那样。愤怒是纯粹情景式的。机器人拥有情感的 一个迹象是,它们做出了一些我们以为只有人类会做,但并没有程序设定的事。”
真正可怕的机器人不会显露情感理论上,我们有朝一日能研制出展现人类所有愤怒特征的机器人。当模拟的情感和意识与真实的情感和意识无法区分的时候,就会出现复杂的哲学争论。如果机器人能完全模拟人类的意识,并对同样的事件做出相同的情绪回应,我们还能认为它们没有意识吗?当然,如此先进的机器人只是假设的产物,我们或许会在本世纪末看到它成为现实,但下一个十年还不可能出现。而且,即使我们制造出了一个愤怒的、跟人一样的机器人,它带来的威胁可能比那些毫无情绪的机器人小得多。阿姆斯特朗博士说:“如果我们可以在机器人身上制造出真实的愤怒 情绪,那已有的知识就会提醒我们,这个机器人很危险,它不能用在拥有权力的位置上。”而且,居心不良的编程者也会有意地避免愤怒机器人。“如果你希望造成 伤害,那就制造出一个杀手机器人,但不要让它愤怒。你会希望避免向所有人传达出危险的信号。”阿姆斯特朗说道。与此相反,没有任何人类情绪特征的机器人(假设的,只存在于遥远 未来)能制造出更大的威胁。人类的演化背景告诉我们,要做好应对愤怒者的准备,并知道是否要信任他们。相比那些没有显露出情绪的机器人,我们在面对一个像 人类一样的愤怒机器人时具有更多的经验。真正危险的,是那些不会对人类任何行为做出回应的机器人。我们是否要担心人工智能?尽管愤怒机器人还没有成为威胁,但阿姆斯特朗博士称,要预测人工 智能是否会最终对人类造成伤害是极其困难的。“人工智能本身会使我们对地球的统治成为可能,潜在的更高智能可能会带来更大的能力,”他说,“人工智能会变 得极为强势,之后它们的喜好会影响未来的走势。如果这些喜好与有关人类的利益毫无关系,那事情最终就可能对我们非常不利。”不过,尽管未来数十年内人工智能会变得越来越强势,但它们是否会 达到显著威胁人类的程度还存在很大变数。对计算机科学家来说,人工智能的威胁是一个“技术问题”。方法之一,是将人类的价值观分类并编程,毫无疑问这将是 非常困难的任务。“相比如何说明这些价值观,以及对其编程,人类内部的价值观差异几乎不值一提。你必须在计算机编码中解决所有的道德伦理问题。”阿姆斯特 朗博士说道。阿姆斯特朗博士正在研究另一种方法,即通过设定“减少影响”的程 序,使机器人对人类更加安全。他解释道:“如果你设定让机器人移除肿瘤,那在肿瘤移除之后,它可能还会立刻切掉患者的腿。它的移除肿瘤的动机并不安全。但 是,如果你设定它移除肿瘤,并对人只产生很小的影响,那它就会以不那么激烈的方式移除掉肿瘤。因此我们通过‘减少影响’的设定,使一些不安全的目标变得安 全。如果进行了这样的设定,机器人就不会做出太大的改变,许多价值观也会变得更加安全。”人工智能的未来还充满着极大的不确定性,像阿姆斯特朗博士这样的计算机科学家正在努力确保我们免受危险机器人的威胁。当然,到目前为止,新西兰公司的愤怒机器人并没有表现出任何威胁,科幻电影中的恐怖情节还远没有成为现实。
关闭
站长推荐
/2
用户1823988 2015-5-28 08:57