3种常见机器人灭世场景,你该担心吗?

谈论人工智能的时间久了,自然而然就会有人问:「机器人会接管世界并将人类全部杀光吗?」

虽然「机器人灭世论」看似是个现存的威胁,但大部分人工智能研究者都不会有这种想法,因为他们认为这种想法仅存在于科幻小说之中。但这又是个有趣的问题,因为没有人确切知道人工智能到底会走向何方。为此,Tech Insider就此问题采访了一些专家,最终结果表明:最常见的机器人灭世场景仅存在于纯小说中。

1.天网场景

用「机器人灭世」为关键词搜索时,显示的第一张图片便是电影《终结者》中的金属骨架。该电影包含了人们所能想到的机器人灭世的最常见情节:天网。一旦超级人工智能拥有自我意识,它便开始用核武器消灭人类。但最终结果却是天网场景不可能实现。

一方面,如今最聪明的人工智能依旧十分愚蠢,而且研究人员发明的可以看到和描述场景的机器人,它唯一的功能便是如此,其他的什么都不会。另一方面,俄勒冈州立大学智能系统负责人Tom Dietterich说,现代某些电脑已经有了一种自我意识形式,而且即使机器的基本意识水平提高到和人类相当,我们无需将其视作威胁。「人类(和几乎所有其他生命形式)都能自我繁殖,只需和另一个人结合创造后代即可。」Dietterich在写给Tech Insider的一封邮件中写到。「这便给了人类生存和繁衍的强大驱动力。相反,人工智能系统经过一系列复杂的组装和制造完成,因此这样的系统不会有同样的生存压力。」

2.回形针场景

哲学家Nick Bostrom在《超级人工智能:途径,威胁,场景》一书中描述了这样一个场景:一个会学习的超级人工智能电脑的任务是制造更多的回形针,但它不知道什么时候停下。Bostrom在一次对Rudyard Griffith(芒克辩论会主席)的播客采访中总结了该场景:

有一天,人类创造了超级智能,由于为了运作回形针工程,因此我们让它尽可能多地制造回形针。从最大化现存回形针的数量的角度考虑该人工智能对配置宇宙有何实际意义,你会发现它有动机和理由来伤害人类。人类身体由许多原子组成,这些原子也能用于制造回形针。为此,当机器人产生了清除人类来制造回形针的想法时,我们却不能将其关掉,因为那样就不能制造回形针。由此可见,如果赋予超级人工智能所能想到的任何任务,它们大部分都对人类的生存和繁荣无益。回形针机器只是一个设想的实验,但如果它真实存在,概念是相同的:我们给了机器一个没有终结点、没有道德损害标准的目标,因此在完成任务过程中,它会不择手段。

但是,机器人专家Rodney Brooks在Edge网站上写道:「看着今天的人工智能就想到未来超级人工智能的样子」与「看到更高效内燃机出现,就直接说曲速引擎指日可待」一样荒谬。换言之,且不说超级人工智能可否实现,就算能实现,那种知道如何将一个人或一只猫或任何东西变成回形针的超级人工智能系统也是遥不可及幻想。

3.自动化武器场景

该场景认为:未来战争中,工程师将创造自动化武器(无需人类操控就能自动瞄准射击),这些武器将通过黑市扩散并落入恶徒手中。平民们会在交火中卷入其中直到人类灭绝。目前,SGR-A1(三星哨兵机器人)已在朝鲜和韩国边境巡逻,这便是全自动武器的雏形。这是个可怕的场景,按理说也最有可能变为现实,为此,一万六千位人工智能学者与特斯拉公司CEOElon Musk和物理学家Stephen Hawking联合签署了禁止自动武器公开信。

但其实,这些武器根本不会有人买。一方面,美国国防高级研究计划局媒体关系主管Jared Adams在给Tech Insider的邮件中说:早在2002年,国防部就发布了「明确禁止致命自动化系统使用」的指令。「机构现在不做任何关于自动化武器解禁的研究,」Adams说,「我们现在做的实质上都是半自动化系统,因为人类参与其中。」

机器之心,最专业的前沿科技媒体和产业服务平台,每日提供优质产业资讯与深度思考,欢迎关注微信公众号「机器之心」(almosthuman2014),或登录机器之心网站www.almosthuman.cn查看更多精彩内容。

热门文章HOT NEWS