原创 不受控的杀人机器人还有多远?

2015-8-5 13:51 897 12 12 分类: 机器人/ AI
20150805135056495.jpg

人工智能一定会使战争更加惨烈吗?


人们担心迅速发展的人工智能如果用于战场,其后果将十分严重,它可以提高杀人机器的效率,同时承担的责任更少。上周数千名科学家和技术人员发表了一份公开信上,呼吁禁止使用人工智能控制的致命性武器。

但与你想象的不同,专家们对机器人杀人一事存在意见分歧。

包括Elon Musk、霍金和Steve Wozniak等在内的许多优秀人工智能研究员、知名科学家、企业家都签署了那份公开信。信上表示:

“人工智能技术已经成熟,如果法律允许,将于近几年内而不是几十年内实现人工智能系统部署。另一方面其危险系数较高:自动化武器可称得上是仅次于导|弹和核武器的发明的第三次战场革命。”

近年来人工智能发展迅速,特别是机器学习领域。该领域通过大量数据让计算机学习识别复杂、微妙的模式,在现实世界中使用这些技术将会引发道德争议。与此同时,先进的军事技术可以实现远程控制。例如,无人机和拆弹机器人的使用,让人们预想在未来可以实现这些技术的自动化。

2012年,美国国防部发布禁令:10年内禁止研发和使用“自动化和半自动化”武器。今年年初,联合国举行会议讨论自动化致命性武器以及禁令实施的可行性问题。

尽管军用无人机和机器人自动化性能还可以升级,但是有人认为不经人类控制而让全自动化机器实施关键任务的想法,其实是无稽之谈。虽然人工智能领域仍存在许多基本挑战,但全自动化武器所需的技术何时成熟仍是未知数。

加州理工州立大学哲学专家Patrick Lin认为:“我们在人工智能领域取得了新的进展,仍有许多人怀疑全自动化时代是否能到来。没有人可以完美的预测未来。”

他说:“这封信在引发人们警觉性方面十分有用,但它也不完全是为了引发讨论,它试图终止争议,并认为‘我们已经找出了答案,你只需要支持我们的意见’。”

公开信中没有提及的一个问题是,在一些情况下自动化武器能否证明其可以帮助减少不必要的伤害。因为他们不会疲劳,犯错更少,也不会有战士的情绪化影响。

有人希望人工智能系统更加智能,但又担心如果失去控制,会对我们的防御系统带来极大损失。

许多人工智能专家关注这个问题,仍有一些科学家认为这只是放错位置的资源。例如,有人认为如果想避免人工智能给金融市场、空汇总交通系统等带来严重后果,可以让那里的计算机不升级人工智能。

另外,Lin认为不受控制的杀人机器人概念令人担心,但它毕竟离我们还远,或许自动化武器更应该引起人们的关注,毕竟它是一个更加紧迫的现实问题。

文章评论0条评论)

登录后参与讨论
我要评论
0
12
关闭 站长推荐上一条 /2 下一条