
事实上人工智能“作恶”的事件已经发生过了,2016年3月23日,一个人设为19岁女性,昵称为Tay 的聊天机器人在推特上线。这个微软开发的人工智能采用了自然语言学习技术,能够通过抓取和用户互动的数据,处理并模仿人类的对话,像人一样用笑话、段子和表情包聊天。但是上线不到一天,Tay 就被“调教”成了一个满口叫嚣着种族清洗、粗野不堪的极端分子,微软只好以“系统升级”为由将其下架。

最大的问题在于能够具体标明什么样的系统行为是不希望发生的,甚至即使在不可预测的情况下,也要让系统能够正常运行,或者保险机制,以便在必要时强制中断此行为。
这是学术界正在持续研究的一个领域。关于机器学习系统行为异常的例子已经有很多了,以人工智能助手为例,它教会了自己以一种非常奇怪的方式在CoastRunners这款游戏中得分:它不是通过完成比赛获得游戏中的高分,而是通过击中游戏中的障碍物来得分。DeepMind的人工智能安全团队也展示了如果人工智能被证明以一种危险的方式在行事的话,让人工智能自我关闭的运行机制。

来源:环球网