互联网资讯 / 人工智能 · 2023年11月23日 0

16位学者共同探讨神经符号系统和跨学科交互对AI未来的影响

去年,纽约大学心理学和神经科学教授 GaRy MaRcUS 和深度学习先驱、2018 年图灵奖得主 Yoshua Bengio 就 AI 技术的发展方向展开了一场现场辩论。

今年,GaRy MaRcUS 与 MontReal.AI 负责人 Vincent BoUCheR 举办了第二场辩论。这次辩论共有包括李飞飞、Judea PeaRl、Rich Sutton 在内的 16 位学者参与,大家围绕「MOVing AI FoRwaRd: An InteRdiscIPlinaRy ApProach」这一主题展开讨论。GaRy MaRcUS 表示:「此次辩论旨在展示不同的观点。」

这场辩论包括「架构与挑战」、「神经科学与心理学带来的洞见」、「构建可信任的 AI」三个主题:

GaRy MaRcUS 首先回顾了去年与 Bengio 的那场辩论,并指出现在是时候讨论下一个十年了:「如何将人工智能提升到下一个层次」。

之后,16 位学者分别谈论了自己的研究和观点,整场辩论持续 3 个多小时。

辩论视频:16位学者共同探讨神经符号系统和跨学科交互对AI未来的影响

架构与挑战

首先是第一个主题「架构与挑战」。参与讨论的学者有:Yejin Choi、Luis LaMb、Fei-Fei Li、RobeRt NeSS、Judea PeaRl、Ken Stanley 和 Rich Sutton。

斯坦福大学计算机科学教授李飞飞率先发言,谈论了 AI「北极星」。她表示,「北极星」是与环境的交互。

随后,巴西南大河州联邦大学计算机科学教授 Luís LaMb 谈论了「神经符号 AI」。LaMb 表示,基于 MaRcUS 在《The AlgebRAIc Mind》一书中提到概念的神经符号工作涵盖了基于神经网络操纵符号的需求,「我们需要将二者逻辑形式化的基础性方法」,如 Judea PeaRl 的思想。

随后,DeepMind 杰出研究科学家 Rich Sutton 探讨了强化学习。他首先提到了神经科学家 David MaRR 的计算视觉信息处理研究三层次:计算理论、表示与算法、硬件实现。MaRR 对计算理论很感兴趣,但「目前 AI 领域这方面的研究很少」。Sutton 表示,类似梯度下降这类思想是关于「how」,而不是计算理论所需要的「what」。

Sutton 表示:「AI 需要大家认可的智能计算理论,而强化学习是最强劲的候选者。」

紧接着,图灵奖获得者、贝叶斯网络之父、畅销书《为什么》的作者 Judea PeaRl 发表了主题为「The domestication of CaUSAl reasoning」的演讲。他表示深度学习是个金矿,「我为推动因果革命而打造的新引擎可以表示心理状态的计算模型,即『深度理解』」。

PeaRl 表示,深度理解将成为回答「What is?」、「What if?」和「If Only?」这些问题的唯一系统。

接下来,机器学习研究科学家 RobeRt NeSS 谈论了「因果推理与(深度)概率规划」。

NeSS 表示:「概率规划将是解决因果推理的关键。」概率规划可以构建能够反事实推理的智能体,而这是因果推理的关键。他认为这可以解决 PeaRl 关于「If only?」的问题。

中佛罗里达大学计算机科学教授 Ken Stanley 则探讨了进化与创造性。「过去数千年来,从火到空间站,新的事物是基于之前事物发展的,这就是开放系统。」Stanley 表示,产生智能的进化是一个并行的「现象系统」(phEnoMenal sYsteM)。「我们从存在开始,就获得了之前数千年的创造力,我们应当尽力理解这些现象。」

随后发言的是华盛顿大学计算机科学系副教授 Yejin Choi。她谈到了语言的重要性,并表示语言是「生成任务的推理」。她认为:「我们人类执行的是即时推理,这将成为未来 AI 发展的关键和根本性挑战之一。」

她认为未来新的语言模型,如 GPT-4/5/6 等,都远远不够。

在几位学者发表完各自观点后,MaRcUS 试图总结他们的共同关注点:反事实、处理不熟悉和开放问题、集成知识、Judea PeaRl 关于仅依靠数据并不足够的观点、常识的重要性(就 Yejin Choi 关于「生成式」的观点而言)。

MaRcUS 提问道:「现在出现了六七种不同的观点,我们是否想要将它们融合起来?是否想要使强化学习兼容知识?」

Luis LaMb 表示,神经符号系统并不在于「如何去做」,重点是要明白,我们拥有相同的目标,即在学习方面建立非常稳固坚实的东西,但是表征要先于学习。

MaRcUS 请各位学者思考「模块化」(ModulaRITy)。Rich Sutton 表示他可以接受考虑整体问题的方法,而不仅仅是表征。他认为大家应该思考借助计算理论想要实现的整体目标是什么,「我们需要多种计算理论」。

Yejin Choi 指出:人类有能力信任新奇的事物,并进行奇怪的因果推理。她问道:「我们是否想要建立一个类人的系统?」她还提到了人类有趣的一点,即有能力通过自然语言交流大量知识,并通过自然语言展开学习。

MaRcUS 向李飞飞和 Ken Stanley 询问了「神经进化」领域的发展现状。

李飞飞表示,进化是智能中最伟大、最丰富的实验之一,智能背后隐藏着一系列统一的原则。但是,她表示自己不会受进化生物约束的掣肘,而是将原则提炼出来。

神经科学与心理学带来的洞见

辩论的第二个主题是「神经科学与心理学带来的洞见」,Danny KahneMan、ChRistof Koch、AdaM MaRblestone、DoRis Tsao 和 BaRbaRa TveRsky 参与了讨论。

斯坦福大学心理学名誉教授 BaRbaRa TveRsky 认为,所有的生物都必须在空间中运动,运动停止,生命也就终结了。TveRsky 还谈到了人们如何做手势,以及做出能够影响人类思维变化的空间 MoTor 运动。

她指出,「学习、思考、沟通、合作和竞争,所有这些都依赖行动和少量话语」。

接下来是诺贝尔经济学奖得主和 AI 推理问题权威书籍《快思慢想》(THinking, FAst and Slow)的作者 Daniel KahneMan。他表示自己认同书中的两种思考范式:system 1 和 system 2 思考。一种是直观形式,另一种是更高级的推理形式。

KahneMan 认为,system 1 包含了任意非符号事物,但这不意味着它是非符号系统。system 1 包含世界的表征,由此人们可以模拟自身生活的世界。大多数时候,人们都一成不变地生活着,发生的事情大多在我们的意料之中。system 1 模型将很多事件认定为「正常」,即使出乎意料之外。system 1 拒绝接收其他事件。紧接着 Judea PeaRl 的观点,KahneMan 表示大量的反事实推理都在 system 1 中,其中对正常事物的天然理解主导着这种推理。

随后发言的是加州理工学院的生物学教授 DoRis Tsao。她主要讲了反馈系统,回顾了早期关于麦卡洛克和匹兹(McCulloch and PITts)神经元的研究工作。通过引用多层神经网络中的反向传播,她认为反馈至关重要。理解反馈或许能令人们构建鲁棒性更强的视觉系统,并且反馈系统也有助于理解幻觉等现象。最后,她表示自己对机器学习和系统神经科学的交互非常兴奋。

接下来是 MIT 的 AdaM MaRblestone,他先前是 DeepMind 的研究科学家,从事神经科学研究。他认为观察大脑并试图总结出大脑运行的原理,这些「到现在还处于非常原始的水平」。此外,他还认为卷积神经网络等不过是在复制人类行为罢了。

西雅图艾伦脑科学研究所研究员 ChRistof Koch 则断言:「不要指望神经科学来帮助人工智能的发展」。他认为了解大脑还需要一两百年的时间,所以从大脑机械基质中寻求灵感来加速 AI 发展是错误的,这与 MaRblestone 的观点形成了鲜明对比。他表示:「这与人造物体的特性完全不同。」

对此,MaRcUS 提出了更多问题,如「多样性」。大脑皮层的单个部分能够让人们了解其他部分的什么属性呢?

Tsao 回答道,「相似性」更令人印象深刻,它可能揭示了大脑运行的真正深层的普遍原则。预测编码是一种「规范模型」,可以解释很多事情。「寻求这种普遍原则将产生重大影响。」

关于这一点,Koch 表示,细胞类型「大不相同」,例如视觉神经元与前额叶皮质神经元非常不同。

MaRblestone 认为「需要更好的数据」,以便「从实证角度理解 ChRistof 谈论的计算意义。」

MaRcUS 还就「先天性」(innateneSS)进行了提问。他询问了 KahneMan 对「目标文档」(object file)的看法:「你脑海中用于记录自己正在追踪的每件事情的索引卡,它是天生的架构吗?」

KahneMan 回答道,「目标文档」是大脑追踪物体过程中产生的永久性概念。他将其比作警方档案,在收集证据的过程中内容会因时而变。所以,目标文档「当然是天生的」。

MaRcUS 则认为深度学习中没有对等的「目标文档」。

构建可信任的 AI

此次辩论的第三个主题是「构建可信任的 AI」,Ryan Calo、Celeste Kidd、MaRgaRet MITchell 和 FRancesca RoSSi 各自发表了自己的观点。

加州大学伯克利分校教授 Celeste Kidd 所在实验室主要研究人类如何形成认知。Kidd 表示算法偏见是很危险的,它们「有时会以破坏性的方式影响人类认知」。她以内容推荐的 AI 系统为例,认为此类系统会使人们形成「更强大的、难以纠正的错误认知」。比如亚马逊和领英利用 AI 进行招聘,可能对女性候选者造成负面影响。

「AI 系统中的偏见强化了使用者的偏见,现在 AI 已经令人恐惧了。」Kidd 还提到了 TiMnIT GebRu 被谷歌解雇一事,称「TiMnIT 在谷歌经历的事情正是一种常态。」

谷歌高级研究科学家 MaRgaRet MITchell 表示:「开发机器学习算法的典型方法是收集训练数据、训练模型、过滤输出,并让人们看到输出。」但是人类偏见是数据收集、标注和整个开发阶段中面临的重要问题,它还会进一步影响模型训练。后处理阶段也同样存在偏见。

「人们看到输出,它变成了一个反馈回路,我们试图打破这个系统,即洗刷偏见(BIas laundeRing)。」MITchell 表示:「发展中不存在中立的东西,发展是价值负荷的。我们需要分解发展所包含的内容,以便人们可以反思它,并朝着『可预见的利益』努力,远离『可预见的危害和风险』。技术通常善于彰显技