人工智能 · 2024年1月9日 0

对人工智能的十大误解

自从20年前深蓝(Deep Blue)在国际象棋中击败卡斯帕罗夫(Garry Kasparov),该事件就被人们誉为机器智能最权威的证明。谷歌的AlphaGo已经在围棋比赛中以四胜一负赢得了韩国棋手李世石,更表明了这些年来人工智能的迅猛进步。机器终会比人类更聪明的预言即将到来,但我们似乎并没有真正理解这个具有划时代意义的事件的影响。

事实上,我们执着于对人工智能的一些严重的、甚至是危险的误解。去年年底,SpaceX公司的联合创始人伊隆·马斯克(Elon Musk)警告说,人工智能会统治世界。此话一出,引发了对人工智能或谴责或支持的激烈争论。对于这样一个重大的未来事件,关于它是否会发生,或是以何种形式发生,各方持巨大的分歧。而当我们考虑到人工智能会带来巨大的利益的同时,也可能出现风险,这一点尤其令人担忧。不同于其他任何的人类发明,人工智能具有重塑人类的潜力,但它也可能摧毁我们。

很难知道该相信什么。但借助于计算科学家,神经科学家,和人工智能理论家的创举,我们可以逐渐了解关于人工智能更清晰的图景。下面是关于人工智能最常见的误解和虚传。

误解一:“我们永远不会创造出类似人类智慧的人工智能。”

对人工智能的十大误解

现实:我们已经在一些游戏领域,如象棋与围棋、股市交易和谈话等创造出可以与人类智慧匹敌、甚至超过人类的计算机。而背后驱动的计算机和算法只会越来越好;因此,计算机赶超其他人类活动,将只是个时间问题。

纽约大学的心理学家加里·马库斯(Gary Marcus)说,在人工智能领域工作的“几乎每个人”都认为,机器将最终会替代我们自己。支持者和怀疑论者之间的唯一真正的区别只是时间框架问题。像Ray Kurzweil等未来学家认为机器替代人类可能会在几十年发生,也有人说,它可能需要几个世纪。

当怀疑论者说这是一个无法解决的技术问题,或是生物大脑有一些内在的独特之处时,是不能令人信服的。我们的大脑是生物机器,但归根到底它们仍然是机器;他们在现实世界中存在,按照物理学的基本规律运行。没有什么是不可知的。

误解二:“人工智能将有自觉意识”

对人工智能的十大误解

现实:关于机器智能的一个共同的假设是,它是自觉的有意识的,也就是说,它会像人类一样思考。更重要的是,像微软联合创始人保罗·艾伦的批评者认为,我们还没有实现人工普遍智能(Artificial General Intelligence, AGI),即能够执行任何一项人类能够进行的智能任务,因为我们缺乏关于意识的完整科学理论知识体系。但伦敦帝国大学认知机器人专家默里·沙纳汉(Murray Shanahan)指出,我们应该避免混淆这两个概念。

意识无疑是一个有趣和重要的主题,但我不相信意识是匹敌人类水平的人工智能必要的部分,”他告诉Gizmodo。 “或者,更准确地说,我们用意识这个词,是为了表明一些心理和认知的属性,而这在人类中是紧密相连互有重合的”。

我们完全可以想像一个非常聪明的机器,缺乏一个或多个这种属性。最后,我们可以建立一个非常聪明的,但没有自我意识的,不能主观或有意识地体验世界的人工智能。沙纳汉说,将智慧和意识同时融合在一台机器里也是有可能的,但是,我们不应该忽视这样一个事实,即智慧和意识是两个不同的概念。

误解三:”我们不应该害怕人工智能。”

事实:今年一月,facebook创始人Mark Zuckerberg说我们不应害怕人工智能,他说这将会为世界创造很多令人惊异的好东西。他只对了一半。我们安然享受人工智能所能创造的巨大的好处:从无人驾驶汽车到新药的制造,然而我们却无法保证所有通过人工智能所实现的将会是良性的。

一个高度智慧的系统也许能了解完成一个特定任务所需要的所有知识,例如解决一个让人头痛的财务问题,或者侵入一个敌人的系统。但除开这些它所专长的特定的领域外,它很可能非常无知和愚昧。Google的DeepMind系统精通于围棋,然而除了围棋,它对于其他领域却没有任何推理和逻辑能力。

对人工智能的十大误解

攻击网络间谍的Flame病毒

类似的例子还有在中东用于攻击网络间谍的程序:Flame。可以想象,未来类似Stuxnet或者Flame这样的系统如若广泛散布,可能对一些含有有敏感信息的基础设施产生一系列不可估量的破坏。(作者注:在此澄清,这些病毒并非人工智能,但在将来他们可以轻易加入人工智能,因此也将会带来以上的一些顾虑。)

误解四:“人工智能由于其极高智能,将不会犯任何错误。”

对人工智能的十大误解

电影《The Invisible Boy》中的超级计算机

事实:Surfing Samurai机器人人工智能研究者和开发者,Richard Loosemore认为大多数假设的人工智能将毁灭世界的情景都非常不符合逻辑。大多数类似的假设总是认为人工智能将会说:“我知道毁灭人类文明是由于设计引起的故障,但无论如何我还是很想去做。”Loosemore指出如果人工智能在打算毁灭人类时,其思路是如此自相矛盾的话,它将在其一生中面临无数自相矛盾的逻辑推理,也因此会干扰了其认知从而变得非常愚蠢,而同时根本不足以对我们造成伤害。他同时也断言,那些认为“人工智能只会做程序设定的任务”的人,将会像在电脑刚刚发明时那些说电脑将永远不会具备应变能力的谬论的人一样。

牛津大学人类未来研究所(Future of Humanity Institute)的Peter Mcintyre和Stuart Armstrong对此有不同看法。他们认为人工智能将很大程度上依赖其程序锁定。他们不相信人工智能不会犯错误,或者反过来他们没有聪明到可以理解我们希望他们能做什么。

McIntyre告诉作者:“从定义上讲,人工智能就是一个在方方面面都比最聪明的人脑要更为聪明的智慧载体”。“它将会完全知道我们设计他们来做什么”。McIntyre和Armstrong相信人工智能将只会做其程序编写的任务,但如果它足够聪明的话,它会最终理解法律的精髓和人文的意义。

McIntyre将人类将来可能面临的困境和老鼠所面临的困境做了比较。老鼠将会不停寻求食物和住所,但它们的目标跟人类不想与老鼠共栖一室的目标始终是相互冲突的。他说“正如我们完全能理解老鼠为什么要钻进我们的屋子里、但仍然不能忍受与老鼠一起生活一样,即使人工智能系统理解我们的目标和我们想要什么,他们仍然会觉得我们的目标无关紧要”。

误解五:“一个简单的修补程序将解决人工智能的控制问题。”

对人工智能的十大误解

正如电影《机械姬》所描述,比我们聪明的机器人并不是那么简单就能控制的

现实:假设我们创造出强于人类的人工智能,我们将要面对一个严重的“控制问题”。未来主义者和人工智能理论家完全不知如何限制和制约一个ASI(超强人工智能),一旦它被创造出来,也不知道如何保证它将对人类友好。最近,佐治亚理工的研究人员天真地认为人工智能可以通过阅读简单的故事和社会习俗来学习人类价值观。而问题很可能会远远比这复杂。

“人们已经提出很多简单的技巧来解决整个人工智能的控制问题,”阿姆斯特朗说。具体例子包括将ASI程序编辑成让它希望取悦人类,或者仅仅作为人类的工具。换个角度说,我们可以集成一个概念,比如爱和尊重,把这些写入它的源代码。并且为了防止它采用超简单的、单色的观点来认识世界,它可以被编程来欣赏知识、文化和社会多样性。

对人工智能的十大误解

Isaac Asimov的“机器人控制三定律”只能是科幻元素,要解决人工智能控制问题,我们不能只靠理论或幻想。

但是,这些解决方案要么太简单,(比如尝试将人类喜好的整个的复杂性用精巧的语言来定义),要么包罗人类所有的复杂到简单的单词、词组或思想。举个例