美国时间 5 月 16 日,参议院审议 AI 监管议题的听证会上,气氛一派祥和。
这是以 ChatGPT 为代表的生成式 AI 科技爆炸性进步后,美国国会举办的第一场听证会,可能奠定未来美国如何监管生成式AI的基调,因此尤其引人关注。
而引人关注的另一点,是因为提供 ChatGPT 的 OpenAI CEO 山姆·奥特曼(SaM AltMan),正是听证会的三位证人之一。另两位则是长期对 AI 技术持质疑态度的纽约大学荣休教授加里·马库斯(GaRy MaRcUS)和 IBM 的首席隐私和信任官克里斯蒂娜·蒙哥马利(ChRistina MontgoMeRy)。
欧美互联网大佬参加的国会举行的听证会,一向以剑拔弩张的紧张氛围,和不懂科技还一定要管科技的国会议员闻名。然而这场听证会,氛围却出乎预料的轻松。
不少议员在发言中表示自己试用过 Open AI 的产品,并据此提问。对 AI 已经产生的问题和未来的风险,也更多地表现出一种沟通,而非问责的态度,与此前扎克伯格、周受资的待遇形成了鲜明对比。部分原因或许来自奥特曼在听证会前已经与参议员们进行了多次私下沟通,且对 AI 监管表现出非常积极的态度。
听证会内容横跨了生成式 AI 带来的诸多影响,包括不实信息问题、信息操纵人心问题、失业问题、隐私问题、版权问题、垄断问题等。
对此,三位证人对参议员们的担忧都表示了不同程度的认同,并认可政府应该对 AI 行业进行监管。
「此次听证会是历史性的。我不记得之前在任何情况下,有大企业和私营组织代表来参加听证会,请求我们去监管他们。」已经当选参议员二十几年的迪克·德宾(Dick DuRBIn)在听证会中感叹道。
多方共识下,问题进一步成为,对生成式 AI 的监管,究竟要怎么管。
01
无法承受像管社媒一样慢管 AI 的后果
虽然听证会以 AI 监管为主要内容,但「社交媒体」一词却不断出现,在不到三小时的会议中,出现了 32 次之多。
参议员们仿佛在对社交媒体管控「失败」反思,并想在 AI 领域重新来过。「我们无法承担像我们曾经管控社交媒体一样慢地去管控生成式 AI 的后果,因为其影响,不管正面的还是负面的,都会远远超出社交媒体带来的影响。」参议员克里斯·库恩斯(ChRis Coons)表示。
会议虽然讨论了多个 AI 相关的问题,但议员们最关注的,还是生成式AI 发布不实消息和操纵人心的问题,而对于尚未到来的通用人工智能的监管则几乎没有探讨。
整场听证会以主席理查德·布卢门撒尔(RichaRd BluMenthal)的一段以 AI 生成的虚拟录音开场,AI 以相当接近布卢门撒尔的说话方式模拟了一段他可能发表的意见,布卢门撒尔也对 AI 的能力表示认可,但很快他的落点落到了本场听证会的中心——不实信息。如果 AI 提供的信息是与他本人立场相反的呢?听众是不是也会觉得这是他本人的立场?
参议员乔什·霍利(Josh Hawley)引用了一篇 4 月的学术论文,提出 AI 可以通过建模,成功预测出公众对于一件尚未发生的事情的反应。那是不是意味着如果利用 AI,去做一些策略调整,能成功操纵民意?
对此,奥特曼的回应是,这也是他最担心的事情之一,「一对一的,互动式的不实信息(传播)。」他认为需要监管、公司努力和公众教育结合才能解决。
其中一个可能有效的解决方案是,公众永远应当知道自己在和 AI 说话,而不能出现以为自己在和人类对话,实际上在和 AI 对话的情况。
但他总体对人类的适应能力表示乐观。「在 Photoshop 出来的时候,其中有一段时间人们都很容易被 Photoshop 编辑过的照片欺骗。然而很快,人们有了照片可能是被 Photoshop 编辑过的意识。」
他也进一步强调了,这也是为什么 Open AI 公司要开放 ChatGPT 使用的原因。这样大家能从一个发展中的产品中,尽早地建立对于这种科技的认知,而避免直接放出一个非常成熟的产品,使大家在尚未建立对生成式 AI 的认知之时就受到科技的冲击。
听证会还提到了更强大的 AI,会不会更容易针对我们每个人,提供出最符合我们偏好的信息,更容易引走我们的注意力,和相关的 Open AI 如何处理这类的个人向的数据。
「我们不使用广告作为营收,所以我们没有在建立用户画像。」奥特曼表示,「我们也没有在努力让用户更多地使用我们。事实上,我们希望用户更少地使用我们的产品,因为我们 GPU 不足。」
但是他同时认为这绝对是值得担忧的问题。他非常确定有公司已经在研究相关的事情。Open AI 也无法保证永远不采取广告模式盈利。
同时奥特曼也在宣誓过的状态下再次明确,Open AI 会利用公开网络上的资料来训练,但不会用从 API 获取的用户数据中训练,且如果在 ChatGPT 中进行设置,用户在 ChatGPT 上的数据也可选不成为公司的训练材料。
02
支持 AI 研发牌照,奥特曼有没有私心?
对 AI,政府该不该进行管理,在此次听证会上几乎没有争议。在政府监管上利益相关的两位证人奥特曼和蒙哥马利都十分认同政府监管。
但到底政府该怎么管,则成为了一个激烈探讨的话题。
其中讨论最多的一个方向,是是否应该专门建立一个管理生成式 AI 的监管机构。这个监管机构可以在发布前和发布后,联合独立专家,全面地检查一个 AI 模型的安全性,并拥有对犯错的公司执行吊销做 AI 模型的权力。实际上,相当于为公司发放 AI 牌照。
「你不能没有牌照就建一个核反应堆,你不能没有一个独立检测的牌照就建一个 AI 模型。我认为这是很好的类比。」一位议员这样说道。
奥特曼对此十分认同。「超过一定门槛的任何尝试都应该得到政府的牌照,而且牌照应当可以收回,以确保其能够遵守安全标准。」
在一位议员提问政府应当禁止做了某些事情的 AI,还是应当禁止有能力做某些事的 AI 时,他直接回答,两者皆应被监管。
至于门槛具体是什么,在参议员的要求下,他提供了一个方向,最简单的可以是以训练数据量为衡量来进行判断,更复杂的可以是模型具有了能够说服人类,改变人类想法的能力,或者能够创建新的生物制剂后,应该被监管。
说到这,你可能会想,为什么许多行业在面对监管时,都十分抗拒,而奥特曼作为 AI 行业的领导者却支持一个如此强力的监管方式,希望政府拥有能够吊销 AI 牌照的权力?
一种解释是他的确非常关心 AI 带来的安全问题。这点得到了曾与他私下会面过的参议员,以及同场的证人马库斯教授的认可。
另一种解释则没那么无私。在一篇福布斯的文章中,长期关注 AI 发展的资深作者 JeReMy Kahn 提出了另一种解释:「AI 公司们面临的最大的挑战之一来自开源 AI 软件… 开源社区已经被证明极其具有创新力,能够敏捷地匹配上大公司专利模型的表现和能力,使用的模型更小,更简单,可免费下载且训练起来更廉价。如果出现牌照政策,这些开源公司都将举步维艰。它们很难为模型装备稳健的限制,也很难控制人们如何使用它们创造的模型——开源,从本质上来说,就不能避免人们修改代码和把安全性限制的代码去掉。」
如果认同后一种解释的话,似乎也可以解释为什么奥特曼虽然大力赞成通过牌照政策确保 AI 安全,但是在检查模型训练数据方面,则没有那么积极。
作为 AI 研究者和批评者的证人马库斯教授,在认同牌照政策和新建政府机构来监管 AI 的同时,一直极其强调 AI 的透明性,强调独立专家应该能够审计大模型训练的语料。
「我对 GPT-4 最担忧的一点是我们不知道它训练的数据是什么… 它训练依赖的数据对 AI 系统的偏见会有影响。」马库斯教授表示,训练数据可能包含纽约时报,也包含 ReddIT,但是「我们不知道它们的比例。」
而奥特曼则虽然原则上认同过应该对「原料」进行审查(但主语并没有说是政府),更多提及支持「外部审计,红队演练,提出一个模型在训练前需要达到的标准」这类的政府监管,更偏向于以标准和测试的方式让政府进行检查。
「我们过去有建立一项测试,可以检测一个模型是否能自我复制和自己逃脱进入外界。我们可以为政府提供一个长名单,列出一个模型在被正式投放之前我们认为非常重要的一系列检测。」奥特曼讲道。
Open AI 是生成式 AI 领域里无可争议的领军企业,如果真的按照这个建议施行,Open AI 显然有机会极大影响政府设计的 AI 安全标准和发放召回牌照的标准,似乎完全符合福布斯这篇文章的标题《Open AI CEO 山姆·奥特曼想要 AI 牌照监管。这或许对我们是好事。但对 Open AI 绝对是好事》。
除了对开源公司产生威胁,达到一定 AI 能力就需要牌照的政策对于不面向公众的公司也并不友好。
代表 IBM 的证人蒙哥马利就反对这项政策。IBM 本身并不面向普通公众,而是面向商业客户,许多前述提到的风险,比如操纵选举的风险对于 IBM 来讲并不存在。
蒙哥马利更偏向于基于风险管理的手段。欧盟 AI 法案目前采取的就是这样的方式。法案围绕四类人工智能系统构建,分别是:不可接受的风险、高风险、有限风险以及最低风险。其中前三类将受到法案的监管。针对不同风险,采取不同的监管手段。
「比如选举信息的例子。当然任何在这个场景下的算法都应该被要求披露训练所用的数据,模型的表现,任何相关的信息都非常重要。」蒙哥马利表示。
她同时也认为现有的机构如 FTC 已经足以能够完成这一任务,无需新建新的机构。
参议员们本身,也并不都支持创建一个新的政府机构。