低成本复制 ChatGPT 训练流程,仅需 1.68GB GPU 即可使用,方法现已开源!

article/2024/12/22 21:40:36

0358e6a822da5c182395269355362ab3.gif

编译 | 屠敏

出品 | CSDN(ID:CSDNnews)

当昨日我们还在讨论从大厂以及个人创业的角度来看,复制一家 OpenAI 和一款强大的 ChatGPT 可行性究竟有几成之际,苦于 OpenAI 并未将 ChatGPT 开源出来,所以这趟水究竟有多深,众人并不知。

不过,2 月 14 日情人节这一天,来自加州大学伯克利分校的教授 James Demmel 和新加坡国立大学计算机系的校长青年教授尤洋及其背后的研究团队悄悄提供了一些答案,其率先呈现了一个开源的低成本 ChatGPT 等效实现流程,瞬间吸引无数 AI 爱好者的目光。

话不多说,简单来看,只需实现如下图所示的三步走,便能实现:

44d353d5e2f46fe2a4504dd5c8bf8997.png

详细来看,我们将通过官方发布的详细公告一探究竟。

4b432403b4d372056f8f4e072a42840c.png

当然,等不及的小伙伴现在可以直接通过 GitHub 地址了解详情:https: //github.com/hpcaitech/ColossalAI

d4093a9a8132cc420a2afe6ea1a82744.png

ChatGPT 技术分析

ChatGPT 的爆火,引得无数英雄竞折腰,那么 ChatGPT 为什么这么神奇?复制的难点是什么?

根据尤洋创立的潞晨科技(HPC-AI TECH)研究团队解析,ChatGPT 取得惊人成绩的重要特点是在训练过程中引入了人类反馈强化学习(RLHF),由此可以让这款 AI 聊天机器人更好地捕捉到人类的偏好。

ChatGPT 的训练过程主要分为三个阶段:

  1. 从 Prompt 库中取样,收集人类的反应,并使用这些数据来微调预先训练好的大型语言模型。

  2. 从 Prompt 库中取样,使用大型语言模型生成多个响应,手动对这些响应进行排序,并训练一个奖励模型(RM)以适应人类的偏好。

  3. 基于第 1 阶段的监督微调模型和第 2 阶段的奖励模型,使用强化学习算法进一步训练大语言模型。

在第三阶段,也就是 RLHF 训练的核心部分,OpenAI 采用强化学习中的近端策略优化(Proximal Policy Optimization,PPO)算法,引入奖励信号,使语言模型生成更更符合人类偏好的内容。

这也是开头伊始显示的那张图:

5b60543199e057b15f2d3615adcb5ddf.png

RLHF 三个阶段

ChatGPT 模型的复杂性实际上就是来源于强化学习的引入,这样会带来更多的模型调用。例如,使用基于 Actor-Critic(AC)结构的 PPO 算法,我们需要在训练过程中对 Actor 和 Critical 模型进行正向推理和反向传播,并在训练过程中对监督微调模型和奖励模型进行多次正向推理。关于作为 ChatGPT 基础的 InstructGPT 的论文,Actor 和监督微调模型都使用了有 1750 亿个参数的 GPT-3 系列模型,而 critical 和 奖励模型则使用了有 60 亿个参数的 GPT-3 系列模型。

在如此庞大的模型参数下,要启动原始的 ChatGPT 训练过程需要数千 GB 的 GPU 内存,这显然远远超出了单个 GPU 的能力,普通的数据并行技术也是不够的。

然而,即使引入张量并行和流水线并行来划分参数,仍然需要至少 64 个 80GB 的 A100 GPU 作为硬件基础。更糟糕的是,流水线由于其复杂性,以及 bubble 和调度的效率,不适合 AIGC 的生成性任务。第三阶段涉及复杂的强化学习和四个模型的训练过程,进一步给 ChatGPT 的代码复制带来困难和挑战。

6a4cca907b5e514ecd221f3205614d2c.png

使用 Colossal-AI 低成本复制 ChatGPT 训练过程

那该怎么解决?

在这里,潞晨科技研究团队用上了自家研发的面向大模型时代的通用深度学习系统 Colossal-AI 带来了一个开源地成本部的 ChatGPT 等效实现流程。

想必不少 AI 从业者对 Colossal-AI 这款开源模型也有过一定的了解,它是开源的(https://github.com/hpcaitech/ColossalAI),其运用了高效多维自动并行、异构内存管理、大规模优化库、自适应任务调度等多项技术,实现高效快速部署 AI 大模型训练和推理,降低 AI 大模型应用成本。

Colossal-AI 背后的潞晨科技,其核心成员来自美国加州伯克利、斯坦福、清华、北大、新加坡国立、南洋理工等世界一流高校。这款模型于去年四月发布,通过一年不到的时间,截至目前,其获得了 8.9k 个 Star。

45cae8dc8b4ed6255fc43a62e0261b62.png

在实验过程中,研究人员以开源的方式复制了 ChatGPT 训练的基本过程,包括第一阶段的预训练,第二阶段的奖励模型训练,以及第三阶段的强化学习训练,这是流程中最复杂的阶段。

此外,Colossal-AI 通过使用 ZeRO、Gemini、LoRA、AutoChunk 内存管理等,大大降低了 ChatGPT 训练的 GPU 内存开销。它只需要一半的硬件资源就可以开始 1750 亿个参数的模型训练(从 64 张卡到 32 张卡),大大降低了 ChatGPT 应用的成本。

倘若在上述相同的硬件资源下,Colossal-AI 能够在更短的时间内进行训练,节省训练成本,加速产品迭代。

为了让更多的开发者跑完 ChatGPT 训练过程,除了原有的 1750 亿参数版本,Colossal-AI 还提供高效的单 GPU、独立的 4/8GPU 的类 ChatGPT版本以减少硬件限制:

9320c282ae734a8a7a3288aea0004984.png

在单台多 GPU 服务器上,即使使用最高端的 A100 80GB GPU,由于 ChatGPT 的复杂性和内存碎片化,PyTorch 也只能启动基于 GPT-L(774M)等小模型的 ChatGPT。因此,用 PyTorch 的 DistributedDataParallel(DDP) 将多 GPU 并行扩展到 4 或 8 个 GPU,结果性能提升有限。

根据研究团队介绍,Colossal-AI 不仅在单 GPU 上有明显的训练和推理速度优势,而且可以随着并行规模的扩大而进一步提高,单服务器训练速度可达 7.73 倍,单 GPU 推理速度可达 1.42 倍,并且能够继续扩大到大规模的平行度,大大降低 ChatGPT 复制的成本。

03ac27923863c5aaf8c1ac270a0e00f9.png

为了最大限度地降低训练成本和易用性,Colossal-AI 还提供了一个可以在单GPU 上试用的 ChatGPT 训练过程。与 PyTorch 相比,在 14999 美元的 A100 80GB 上最多只能启动 7.8 亿个参数模型,Colossal-AI 将单个 GPU 的容量提高了 10.3 倍,达到 80 亿参数。对于基于 1.2 亿个参数的小模型的 ChatGPT 训练,至少需要 1.62GB 的 GPU 内存,任何单一消费级 GPU 都可以满足。

45a399cd1e272648fcac219e4cb3eede.png

此外,Colossal-AI 在致力于降低基于预训练的大型模型的微调任务的成本。例如,关于 OPT 模型的 ChatGPT 的微调任务,Colossal-AI 能够将单个 GPU 上的微调模型的容量比 PyTorch 提高 3.7 倍,同时以足够高的速度工作。

c44bf5684dde9916d5a005c80936a055.png

一行代码即可启动

一切准备就绪,只欠行动。根据研究人员介绍,Colossal-AI 提供了开箱即用的 ChatGPT 训练代码。在此,以 GPT 为例,只需要一行代码就可以指定使用 Colossal-AI 作为系统策略来启动。

bcd144a3be88532036df0d1311a65186.png

使用以下命令,开发者可以快速启动单 GPU 规模、单机多 GPU 规模、原始 1750 亿参数规模版本的训练,并对各种性能指标(包括最大GPU内存使用率、吞吐量和TFLOPS)进行评估。

# Training GPT2-S using a single card, a minimum batch size, Colossal-AI Gemini CPU strategy
torchrun --standalone --nproc_pero_node 1 benchmark_gpt_dummy.py --model s --strategy colossalai_gemini_cpu --experience_batch_size 1 --train_batch_size 1
# Training GPT2-XL with a 4-GPU machine, Colossal-AI Zero2 strategy
torchrun --standalone --nproc_per_node 4 benchmark_gpt_dummy.py --model xl --strategy colossalai_zero2
# Training GPT-3 with 4 8-GPU servers, Colossal-AI Gemini CPU strategy
torchrun --nnodes 4 --nproc_per_node 8 \--rdzv_id=$JOB_ID --rdzv_backend=c10d --rdzv_endpoint=$HOST_NODE_ADDR \benchmark_gpt_dummy.py --model 175b --strategy colossalai_gemini_cpu --experience_batch_size 1 --train_batch_size 1

c46ecc3f9ef287e4e8745e9180ca0a8d.png

底层优化

低成本的 LoRA 微调

复制 ChatGPT 的实现过程通常依赖于 Colossal-AI。Colossal-AI 支持通过低秩矩阵微调(LoRA,Low-Rank Adaptation)方法进行高效微调。该方法假设大型语言模型是过度参数化的,微调过程中的参数变量是一个低秩矩阵,它可以分解为两个小矩阵的乘积:

13bd46ca90ac8a9110faf3c1817b67a2.png

由于大型语言模型的参数是固定的,在微调过程中只有调整矩阵的参数,从而减少训练参数的数量。在进行部署推理时,将矩阵的乘积加回到原始矩阵中,如0e102db91af3f3fbac069cccf3f3f970.png,不影响推理延迟。

b1919aecb8e68671e93052cf412279a4.png

LoRA 结构,只训练 A、B

Zero+Gemini 来减少内存冗余

与传统的数据并行策略相比,Colossal-AI 使用零冗余优化器(ZeRO)来消除内存冗余,并在不影响计算粒度和通信效率的情况下,提高内存使用率。此外,为进一步提高了 ZeRO 的性能,Colossal-AI 还提出了基于 Chunk 的内存管理机制,它可以将连续的参数集按操作顺序存储在一个连续的、均匀分割的内存空间中,由此更能有效地利用网络带宽(PCI-e 和 GPU 之间),减少通信成本,并避免潜在的内存碎片。

9133a83bc184ca6cfaecb43e31ece6f5.png

此外,Colossal-AI 的异构内存管理器 Gemini 通过将优化器状态卸载到 CPU ,以此减少 GPU 内存占用,允许同时使用 GPU 内存和 CPU 内存(包括 CPU DRAM 或 NVMe SSD 内存)来训练超出单个 GPU 内存限制的大规模模型。

9f419491f350d1ad7b917613a4a5a921.png

5058c6038eee315c18984271d2184379.png

写在最后

目前,该研究团队已经开源了完整的算法和软件设计来复制 ChatGPT 的实现过程:https://github.com/hpcaitech/ColossalAI。

不过,同样是基于成本考虑,他们表示,「对于这样一个巨型的人工智能模型,它需要更多的数据和计算资源来实际生效和部署。毕竟,用 1750 亿个参数训练一个 GPT-3 需要价值数百万美元的计算能力。因此,大型预训练模型长期以来只为少数大科技公司所拥有。」

因此,他们也希望能够以开源的方式,吸引更多的研究人员、机构共同参与进来,仅以上文中所复制 ChatGPT 训练流程的实践探索为起点,未来可以向大模型的时代做出努力。

更多详情内容可查阅官方公告:https://www.hpc-ai.tech/blog/colossal-ai-chatgpt

参考资料:

https://twitter.com/ArtificialAva/status/1623346998928723971

https://finance.yahoo.com/news/chatgpt-on-track-to-surpass-100-million-users-faster-than-tiktok-or-instagram-ubs-214423357.html

https://blogs.microsoft.com/blog/2023/02/07/reinventing-search-with-a-new-ai-powered-microsoft-bing-and-edge-your-copilot-for-the-web/

https://arxiv.org/abs/2106.09685

https://arxiv.org/pdf/2203.02155

https://openai.com/blog/chatgpt/

https://en.wikipedia.org/wiki/ChatGPT

https://www.benzinga.com/news/23/02/30850547/bill-gates-says-chatgpt-as-big-an-invention-as-the-internet-will-make-many-office-jobs

 

c35ba0ac806711e7399ef60ac6d55fcb.gif

 

401a1075813a04bea9bc8bbbe9bff1c0.png

☞ChatGPT 技术首发上车,集度汽车官宣将融合文心一言;谷歌自研数据中心芯片取得新进展;Firefox 110 发布|极客头条
☞“C# 不停止膨胀,必将走向灭亡”
☞别光骂谷歌了!新版 Bing 花式“翻车”,还让用户向它道歉?

http://chatgpt.dhexx.cn/article/mDQUtRoR.shtml

相关文章

ChatGPT实现多语种翻译

语言翻译 多语种翻译是 NLP 领域的经典话题,也是过去很多 AI 研究的热门领域。一般来说,我们认为主流语种的互译一定程度上属于传统 AI 已经能较好完成的任务。比如谷歌翻译所采用的的神经机器翻译(NMT, Neural Machine Translation)技术就一度让世人惊…

突发!ChatGPT 开始大面积封号,注册功能关闭!亚洲成重灾区,网友自救喊话:不要登录,不要登录...

公众号关注 「奇妙的 Linux 世界」 设为「星标」,每天带你玩转 Linux ! ​ “不要登录ChatGPT!” “暂时远离人工智能和ChatGPT概念板块高位股!” 就在这两天,一些关于ChatGPT的疾呼突然在各种社交平台和群聊刷屏了。 …

chatgpt赋能python:Python模拟登录-实现自动化登录的方法

Python模拟登录 - 实现自动化登录的方法 在日常生活中,我们使用的许多网站需要我们进行登录才能够访问其功能和服务。而在进行人工操作时,频繁登录已经成为了一件烦琐的任务。因此,自动化登录功能的实现也成为了一个极为重要的需求&#xff…

chatgpt 无法登录报错Access denied、OpenAl‘s services are not available in yourcountry. (error=unsupported )

一、主要解决有账号无法登录问题,共包含两种情况。 1、Oops! OpenAls services are not available in yourcountry.(errorunsupported country) 2、Access denied You do not have access to chat.openai.com. The site owner may have set restrictions that p…

ChatGPT在英文论文润色编辑领域有哪些应用?

ChatGPT(全名Chat Generative Pre-trained Transformer)是美国人工智能研究实验室OpenAI研发的聊天机器人程序产品,于2022年11月发布。 ChatGPT基于人工智能神经网络技术,能够根据与人类聊天的内容进行互动交谈,根据丰…

完整攻略,如何利用ChatGPT搞科研!

Datawhale分享 最新:ChatGPT应用,来源:量子位 这位研究僧,GPT-4都发布了,你还在纯人工搞科研吗? 已经有人实测: ChatGPT科研全流程都能用,尤其是对于英语非母语的科研人员&#xff…

ChatGPT | 分享论文 Rebuttal、Review 时可能会用到的 Prompt

ChatGPT 可以帮助润色学术论文,助力搞科研! 论文 Rebuttal, Review 过程中可能使用的一个 Prompt: Prompt:I want you to act as an English translator, spelling corrector and improver. I will speak to you in any language…

【ChatGPT】开源学术科研专用 ChatGPT 来了——GitHub斩获 14k+ 星(需要API_SECRET_KEY)

科研工作专用ChatGPT拓展,特别优化学术Paper润色体验,支持自定义快捷按钮,支持markdown表格显示,Tex公式双显示,代码显示功能完善,新增本地Python工程剖析功能/自我剖析功能。 目录 ChatGPT 学术优化 1. 下载项目 2. 配置API_KEY和代理设置

【chatgpt-01】部署学术神器chatgpt_academic

目录 1 chatgpt_academic简介2 前置准备3 项目下载/配置4 安装依赖5 项目配置6 运行7 测试实验性功能 1 chatgpt_academic简介 chatgpt_academic是一个科研工作专用ChatGPT拓展,特别优化学术Paper润色体验,支持自定义快捷按钮,支持markdown表…

chatgpt插件+AI英语论文润色

谷歌商店安装插件 https://chrome.google.com/webstore/detail/dochero-chatgpt-powered-a/dpindoafffjhbnhbdgjibhdoklelcfdn输入你要修改的句子:

玩转ChatGPT:中科院ChatGPT Academic项目部署与测评

一、ChatGPT Academic简介 最近,以ChatGPT为代表的超大规模语言模型火出了圈,各种二次开发项目也是层出不穷。 比如说今天我们玩弄的这个“ChatGPT Academic”,在GitHub上已经13.7K的点赞了。 项目地址:https://github.com/bina…

学术科研专用ChatGPT来了!

点击上方“小白学视觉”,选择加"星标"或“置顶” 重磅干货,第一时间送达 【导读】最近,一位开发者在GitHub上开源的「科研工作专用ChatGPT」项目大受好评。论文润色、语法检查、中英互译、代码解释等等一键搞定。 自从ChatGPT发布之…

科普文:国内 ChatGPT 怎么用?如何运用 ChatGPT 辅助论文?高阶技巧指南:降重、润色、翻译~

1、ChatGPT 国内使用普及 随着国内 ChatGPT 的普及,如公众号、应用等,很多支持3.5和4.0,还不需要魔法。 相信大家现在都已经使用上ChatGPT了~ 能深切体会到,ChatGPT 真是方方面面都有非常大的帮助~ 科普文:ChatGPT…

OpenAI Translator | 基于ChatGPT API全局翻译润色解析及ORC上传图像翻译插件

简介 OpenAI Translator,一款基于 ChatGPT API 的划词翻译的浏览器插件和跨平台桌面端应用,使用 ChatGPT API 进行划词翻译和文本润色,借助了 ChatGPT 强大的翻译能力,帮助用户更流畅地阅读外语和编辑外语,允许跨 55 …

chatGPT润色中英论文软件-文章修改润色器

chatGPT可以润色英文论文吗? ChatGPT可以润色英文论文,它具备自动纠错、自动完善语法和严格全面的语法、句法和内容结构检查等功能,可以对英文论文进行高质量的润色和优化。此外,ChatGPT还支持学术翻译润色、查重及语言改写等服务…

不会代码没有Key如何使用中科院学术专用版 ChatGPT的方法(内附免费使用ChatGPT plus网址和论文润色的指令模板)

文章目录 1.英语学术润色2.中文学术润色3.查找语法错误中译英学术中英互译找图片解释代码 最近应该都听说了一个非常火的ChatGPT学术版(chatgpt academic),其功能非常强大。近两天小硕想跑通用一下,但是奈何没有openai的key&#…

如何免费使用ChatGPT进行学术润色?你需要这些指令...

目录 1 ChatGPT4.0上线2 中科院ChatGPT学术版3 学术润色Prompts 1 ChatGPT4.0上线 2023年3月14日,OpenAI发布ChatGPT4.0。ChatGPT4.0比3.5更大,拥有更多的参数。这意味着它可以更好地捕捉和理解语言的复杂性和细微差别,而且ChatGPT4.0是多模…

如何利用ChatGPT进行论文润色-ChatGPT润色文章怎么样

ChatGPT润色文章怎么样? ChatGPT可以润色文章,使用其润色功能可以为用户提供更加整洁、清晰、文采动人的文本。但需要注意以下几点: 需要保持文本的一致性和完整性。当使用ChatGPT进行润色时,需要注意保持文本的一致性和完整性。…

Unity 连接ChatGPT

1、首先登录openai官网拿到自己的api(key) 2、下载插件,可以私聊 3、3个地方填上key 效果

基于C# .NetCore WebApi 接入ChatGPT 方法

1.新建一个.NetCore WebApi项目,演示是基于.Net Core 6 2.添加Nuget引用 OpenAi 3.新建一个控制器 ChatGPTController using Microsoft.AspNetCore.Mvc; using OpenAI_API; using OpenAI_API.Completions;namespace ChatGPTApi.Controllers {public class ChatGPTController : …