充满胜利的旅途胜过终点的到达。——霍金
2018年3月14日,人类历史上最伟大的科学家史蒂芬·霍金去世了,享年76岁。这位杰出的学者给人类的发展做出了巨大的贡献,《时间简史》、《果壳中的宇宙》、《大设计》等作品,无一不是人类的瑰宝。
3月14日霍金去世了
在过去的这些年内,除了探索宇宙真理之外,霍金还在为人类命运发声。而在近几年内,他最关注的话题就是人类如何才能离开地球和告诫人类警惕人工智能。
人工智能是21世纪以来,人类最伟大的发明之一。它带给了人类诸多便利,但是,霍金却十分担忧它的隐患。2017年3月,霍金在接受《泰晤士报》采访时就曾说,人类需要控制人工智能,以防止它们在未来可能对人类生存带来毁灭性的威胁。
韩国自主研发的战斗机器人
想想,霍金并非在危言耸听,咱们的人工智能有些地方存在一定量的威胁,表现最为明显的就是人工智能武器,也就是致命自主武器系统。
人工智能武器,是继火药和核武器之后在“战争领域”的第三次革命。如果任何军事力量推动人工智能武器的开发,全球性的军备竞赛则将不可避免。因为人工智能武器,不像核能一样需要昂贵的成本和难以获取的原材料。一旦开发,人工智能武器就很容易在各军事力量中普及。
2017年11月份的时候,在日内瓦举办的联合国特定常规武器公约会议上,有一段视频令人惊骇。视频里,机器杀人蜂,通过面部识别,瞬间杀死了正在上课的学生和老师。
杀人蜂
试想人工智能武器,会带来什么影响?在军事方面,降低己方士兵的风险,降低人与人之间近距离战争的代价。此外,自主武器系统也省去了军人的薪水、住房、养老、医疗等开销,又在速度、准确性上高于人类,而且不用休息。有别于人类战斗员会在战场上出现心理和情绪波动的特点,人工智能武器更稳定,并且能够抵达人类不可及之处,完成搜救和保护任务。
正在海上进行试验的美国Sea Hunter自主战舰
但是,如果人工智能武器被恐怖分子窃取了,则对于人类来说是重大的威胁。这样的威胁,可不是零零散散的军事优势可以弥补的。
人工智能并不可怕,可怕的是人工智能武器。时至今日,国际社会仍然没有就致命性自主武器系统问题达成统一认识,甚至还没有统一的定义。
来源:网络