互联网技术 / 互联网资讯 · 2024年1月22日 0

EleutherAI开源的GPT-J:与GPT-3相媲美?

2020 年,微软与 OpenAI 达成了协议,微软将拥有对 GPT-3 源代码的独家访问权,自此 OpenAI 就不像以往一样开放其 GPT-3 AI 模型,而 OpenAI 的 GPT-1 和 GPT-2 仍然是开源项目。

为了打破 OpenAI 和微软对自然语言处理 AI 模型的垄断,ConnoR Leahy、Leo Gao 和 Sid Black 创立了 EleutheRAI,这是一个专注于人工智能对齐、扩展和开源人工智能研究的组织。近日 EleutheRAI 研究团队开源了一个基于 GPT-3 的自然语言处理 AI 模型 GPT-J。

EleutherAI开源的GPT-J:与GPT-3相媲美?

GPT-J 是一个基于 GPT-3,由 60 亿个参数组成的自然语言处理 AI 模型。该模型在一个 800GB 的开源文本数据集上进行训练,并且能够与类似规模的 GPT-3 模型相媲美。

该模型通过利用 Google Cloud 的 v3-256 TPU 以及 EleutheRAI 的 The Pile 数据集进行训练的,历时大约五周时间。GPT-J 在标准 NLP 基准工作负载上实现了与 OpenAI 报告的 67 亿参数版本的 GPT-3 类似的准确性。模型代码、预训练的权重文件、Colab 文档和一个演示网页都包含在 EleutheRAI 的开源项目中。

EleutheRAI 在 2021 年 3 月发布了 27 亿参数的 GPT-Neo 模型,这是他们对类 GPT 系统的第一个实现。GPT-Neo 是在 TensoRFlow 中构建的,并通过 Mesh TensoRFlow 并行库在 TPU 上训练。该团队目前还正在开发 GPT-NeoX,这是一个基于微软 Deepspeed 的 GPU 解决方案;虽然代码是开源的,但目前没有模型文件可以访问。

最新的模型 GPT-J 是用 Mesh-TRansfoRMeR-JAX 这个新库来训练的。该库没有使用像 TensoRFlow 这样的特定深度学习框架,而是使用 Google 的 JAX 线性代数框架。GPT-J 提供了比 TensoRflow 更灵活、更快速的推理,该模型的开发时间远远少于早期的举措。与 GPT-Neo 模型相比,GPT-J 的训练效率提高了 125%。在几个 Down-StReaMing 工作负载的零点性能方面,GPT-J 是公开的 TRansfoRMeR LM 中表现最好的。

EleutherAI开源的GPT-J:与GPT-3相媲美?

EleutheRAI 的开发者 KoMatsuzaki 表示:“与 TensoRFlow 和 TPU 的同类产品相比,它允许更灵活、更快速的推理。更重要的是,该项目需要的时间大大少于其他大规模模型。研究表明,JAX + xMap + TPU 是快速大规模模型开发的完美工具集合。&Rdquo;

开发者可以在 GITHub 上找到 GPT-J 的源代码和模型,并能在 EleutheRAI 的官方网站上找到互动演示。