ChatGPT的平替来了?一文总结 ChatGPT 的开源平替,你值得拥有

article/2025/4/20 5:41:14

文章目录

  • 【AIGC精选】总结 ChatGPT 的开源平替,你值得拥有
    • 1.斯坦福发布 Alpaca 7B,性能匹敌 GPT-3.5
    • 2.弥补斯坦福 Alpaca 中文短板,中文大模型 BELLE 开源
    • 3.国产AI大模型 ChatGLM-6B 开启内测
    • 4.中文 Alpaca 模型 Luotuo 开源
    • 5. ChatGPT 最强竞品 Claude 开放API

【AIGC精选】总结 ChatGPT 的开源平替,你值得拥有

2023 年,聊天机器人领域似乎只剩下两个阵营:「OpenAI 的 ChatGPT」和「其他」。

再加上前段时间 GPT-4 的发布,ChatGPT 也有了更强大的推理和多模态能力,OpenAI 几乎不可能将其开源。

OpenAI 分享了大量 GPT-4 的基准和测试结果,但是基本上没有提供用于训练的数据、成本、或者用于创建模型的方法。

在这里插入图片描述

然而,表现欠佳的「其他」阵营却一直在做开源方面的努力。

目前业界可以下载到的一些大模型:

  • GLM-10B/130B:双语(中文和英文)双向稠密模型。
  • OPT-2.7B/13B/30B/66B:Meta开源的预训练语言模型。
  • LLaMA-7B/13B/30B/65B:Meta开源的基础大语言模型。
  • Alpaca(LLaMA-7B):一个强大的可复现的智能跟随模型,种子任务都是英语,收集的数据也都是英文,因此训练出来的模型未对中文优化。
  • Alpaca-Lora:Stanford Alpaca 是在 LLaMA 整个模型上微调,而 Alpaca-Lora 则是利用 Lora 技术,在冻结原模型 LLaMA 参数的情况下,通过往模型中加入额外的网络层,并只训练这些新增的网络层参数。由于这些新增参数数量较少,这样不仅微调的成本显著下降,还能获得和全模型微调类似的效果。
  • BELLE(BLOOMZ-7B/LLaMA-7B):项目基于 Stanford Alpaca,针对中文做了优化,模型调优仅使用由ChatGPT生产的数据(不包含任何其他数据)。
  • ChatGLM-6B:中英双语的对话语言模型。

原文传送门:【AIGC精选】总结 ChatGPT 的开源平替,你值得拥有

1.斯坦福发布 Alpaca 7B,性能匹敌 GPT-3.5

面对 ChatGPT 等大模型的来势汹汹,开源平替是一个不错的选择。

二月低,Meta「开源」了一个新的大模型系列 —— LLaMA(Large Language Model Meta AI),参数量从 70 亿到 650 亿不等。130 亿参数的 LLaMA 模型「在大多数基准上」可以胜过参数量达 1750 亿的 GPT-3,而且可以在单块 V100 GPU 上运行。

传送门:Meta发布最新大模型LLaMA:参数规模更小,单卡就能跑赢GPT-3

在这里插入图片描述

图注:LLaMA做出的一些成果

翻译:
- 2月24日,LLaMA发布,并在非商业许可下提供给政府、社区和学术界的研究人员和实体工作者;
- 3月2日,4chan网友泄露了全部的LLaMA模型;
- 3月10日,Georgi Gerganov创建了llama.cpp工具,可以在搭载M1/M2芯片的Mac上运行LLaMA;
- 3月11日:通过llama.cpp可以在4GB RaspberryPi上运行7B模型,但速度比较慢,只有10秒/token;
- 3月12日:LLaMA 7B在一个node.js执行工具NPX上成功运行;
- 3月13日:llama.cpp可以在Pixel 6手机上运行;
- 3月14日,斯坦福Alpaca「羊驼」发布。

3月14日,斯坦福基于 LLaMA 7B 微调出一个具有 70 亿参数的新模型 Alpaca,他们使用了 Self-Instruct 论文中介绍的技术生成了 52K 条指令数据,同时进行了一些修改,在初步的人类评估中,Alpaca 7B 模型在 Self-Instruct 指令评估上的表现类似于 text-davinci-003(GPT-3.5)模型。

从参数规模的角度看,Alpaca 远远小于 text-davinci-003,移动端甚至也可以运行 7B 的轻量级语言模型。

在性能上,研究团队测试的结果表明 Alpaca 的输出良好,并且反映出指令遵循数据集的一般风格。例如,Alpaca 输出的答案通常比 ChatGPT 更简洁,这和 text-davinci-003 类似。不过,Alpaca 还是会表现出语言模型的几种常见缺陷,包括幻觉、毒性和刻板印象。

成本方面,研究所涉及到的数据集,是斯坦福团队花了不到500美元用 OpenAI 的API来生成的。另外,在 8 个 80GB A100 上微调一个 7B LLaMA 模型需要 3 个小时,这对大多数云计算提供商来说成本不到 100 美元。所以,斯坦福团队用不到 600 美元就复现了一个性能匹敌 GPT-3.5的AI模型。

部署方面,基于 LLaMA 微调的 Alpaca 可以轻松在本地部署。没有显卡也没关系,苹果笔记本甚至树莓派、手机都可以玩。

最后,团队把数据集(秒省500刀,且比原论文的数据多样性更高)、代码统统都给开源了,这下子人人都能去微调个效果炸裂的对话AI:复制一个GPT-3.5效果的AI,很便宜,很容易,还很小。

在这里插入图片描述

项目地址:
https://github.com/tatsu-lab/stanford_alpaca

试用地址:
https://alpaca-ai-custom6.ngrok.io/

Demo地址:
https://crfm.stanford.edu/alpaca/

2.弥补斯坦福 Alpaca 中文短板,中文大模型 BELLE 开源

由于 Alpaca 的种子任务都是英语,收集的数据也都是英文,因此训练出来的模型未对中文优化。为了提升对话模型在中文上的效果,开源中文对话大模型 70 亿参数的 BELLE(Bloom-Enhanced Large Language model Engine)来了。

BELLE 基于斯坦福的 Alpaca 完成,对中文做了优化,并对生成代码进行了一些修改,模型调优仅使用由 ChatGPT 生产的数据(不包含任何其他数据)。

在这里插入图片描述

项目地址:
https://github.com/LianjiaTech/BELLE

在数据方面,该项目开源了基于 Alpaca 的数据收集代码,基于这段代码生成了约 100 万条中文数据,结合 Alpaca 的 5 万条英文数据,在 BLOOMZ-7B 模型训练得到的 checkpoint 上传在 Hugging Face。

Hugging Face 地址:
https://huggingface.co/BelleGroup

该项目还采取了不同大小规模(20 万、60 万、100 万和 200 万样本)的指令学习的数据集训练模型,得到不同的模型版本如下所示:
在这里插入图片描述

该项目也采用对应数据集基于LLAMA-7B训练调优了模型,现已开放:
在这里插入图片描述

具体的模型训练方法可参考Hugingface Transformers的样例,SFT方法可参考Alpaca的训练代码。

3.国产AI大模型 ChatGLM-6B 开启内测

3 月 14 日,由清华技术成果转化的公司智谱 AI 开源了 GLM 系列模型的新成员——中英双语对话模型 ChatGLM-6B,初具问答和对话功能,现已开启邀请制内测(内测申请网址 http://chatglm.cn)。需要注意的是,目前 ChatGLM 每轮对话最多只可以进行5个来回,每次最多输入1000字。

ChatGLM-6B 基于General Language Model(GLM)架构,具有62亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署。

具体来说,ChatGLM-6B 具备以下特点:

  • 充分的中英双语预训练:ChatGLM-6B 在 1:1 比例的中英语料上训练了 1T 的 token 量,兼具双语能力。
  • 优化了模型架构和大小:具有 62 亿参数,可以在消费级显卡上部署使用。
  • 更长的序列长度:相比 GLM-10B(序列长度 1024),ChatGLM-6B 序列长度达 2048,支持更长对话和应用。
  • 人类意图对齐训练:使用了监督微调(Supervised Fine-Tuning)、反馈自助(Feedback Bootstrap)、人类反馈强化学习(RLHF)等方式,使模型初具理解人类指令意图的能力。

因此,ChatGLM-6B 具备了一定条件下较好的对话与问答能力。

与此同时,ChatGLM-6B 也存在模型容量较小、可能会产生有害说明或有偏见的内容、较弱的多轮对话能力、英文能力不足、易被误导等缺陷。

不过,网上有人质疑该模型是拿 ChatGPT 的数据训练的,加了点中文语料。
在这里插入图片描述

项目地址:
https://github.com/THUDM/ChatGLM-6B

官方博客:
https://chatglm.cn/blog

4.中文 Alpaca 模型 Luotuo 开源

Alpaca 是斯坦福团队基于 LLaMA 7B 在 52k 指令上微调得到的模型,能出色适应多种自然语言应用场景。

Stanford Alpaca 对于普通研究者来说,这是一种切实可行的廉价微调方式,不过需要的运算量仍然较大。而且,Alpaca 的种子任务都是英语,收集的数据也都是英文,因此训练出来的模型未对中文优化。

为了进一步降低微调成本,另一位来自斯坦福的研究者 ——Eric J. Wang 使用 LoRA(low-rank adaptation)技术复现了 Alpaca 的结果。具体来说,Eric J. Wang 使用一块 RTX 4090 显卡,只用 5 个小时就训练了一个和 Alpaca 水平相当的模型,将这类模型对算力的需求降到了消费级。而且,该模型可以在树莓派上运行(用于研究)。

在这里插入图片描述

图注:Eric J. Wang 发布的 Alpaca-LoRA 项目

项目地址:
https://github.com/tloen/alpaca-lora

这非常适合想要训练自己的类 ChatGPT 模型(包括中文版类 ChatGPT)但又没有顶级算力资源配置的研究者。

在 Alpaca-LoRA 项目问世后,为了提升对话模型在中文上的效果,来自商汤科技和华中科技大学开源中文语言模型骆驼 Luotuo,该项目基于 LLaMA、Stanford Alpaca、Alpaca LoRA、Japanese-Alpaca-LoRA 等完成,单卡就能完成训练部署。

一点小插曲,之所以将模型名字命名为骆驼,是因为 LLaMA(大羊驼)和 Alpaca(羊驼)都属于偶蹄目 - 骆驼科。

在这里插入图片描述

项目地址:
https://github.com/LC1332/Chinese-alpaca-lora

目前该项目已公开训练的语料和模型权重文件(两个型号:luotuo-lora-7b-0.1、luotuo-lora-7b-0.3),供开发者可使用自己各种大小的语料,训练自己的语言模型,并适用到对应的垂直领域。

在这里插入图片描述

目前这个中文版 Alpaca-LoRa 模型 —— Luotuo 能够进行简单的中文对话和问答,开发者可以通过引入其他领域的数据进行模型优化。

不过 luotuo-lora-7b-0.1(0.1)、luotuo-lora-7b-0.3(0.3)还是有差距的,在用户询问华中师范大学地址时,0.1 回答错误。

在这里插入图片描述

5. ChatGPT 最强竞品 Claude 开放API

由 OpenAI 前员工(原GPT-3核心成员)创立的人工智能初创公司“Anthropic”发布了一款类似于 ChatGPT的 AI 助手,名为"Claude"。Anthropic宣称,它的目标是“更安全”、“危害更小”的人工智能,但代价更高。目前提供两个版本的 Claude:Claude 和 Claude Instant。不过,Claude 的初始版本无法访问互联网。

因为2019年 OpenAI 与微软达成第一笔交易后越来越注重商业运用,“对公司的方向产生分歧后”离开 OpenAI 的11名前员工创立了“Anthropic”。

在去年12月发布「Constituional人工智能:来自人工智能反馈的无害性」一文后不久,Anthropic 便推出了自家的聊天机器人 Claude,不过并没有开放接口,只能在各个合作伙伴开发的应用中进行体验。

Claude 被称为 ChatGPT 最强竞品,与 ChatGPT 类似,Claude 具有高超的对话能力,能够处理总结、搜索、创意、协同写作、问答、写代码等任务。

3月14日,Anthropic 开放 Claude API,并提供两个版本的模型:Claude 和 Claude Instant。其中 Claude Instant 的延迟更低,性能略差,价格比完全体的 Claude-v1要便宜,两个模型的上下文窗口都是9000个token(约5000个单词,或15页)。

  • Claude Instant,是一个更快、更便宜的模型,可以处理一系列任务,包括随意对话、文本分析、摘要和文档问题回答。定价:输入:0.43美元/百万字符,输出:1.45美元/百万字符。
  • Claude-v1,是Anthropic公司目前最好的产品,擅长于从复杂的对话和创造性的内容生成。定价:输入:2.9美元/百万字符,输出:8.6美元/百万字符。

友情提示:ChatGPT 3.5(gpt-3.5-turbo接口)价格为2.7美元/百万tokens,和Claude-v1版本价格差不多。

在这里插入图片描述

Claude 和 ChatGPT 都依赖于强化学习(RL)来训练偏好(preference)模型,被选中的回复内容将在后续用于模型的微调,只不过具体的模型开发方法不同。Claude 采用了 Anthropic 称之为“宪法式 AI”(Constitutional AI,CAI)的训练技术。

CAI 建立在RLHF的基础之上,不同之处在于,CAI的排序过程使用模型(而非人类)对所有生成的输出结果提供一个初始排序结果。

在这里插入图片描述

体验地址:https://www.anthropic.com/product

自 2020 年底以来,Claude 一直在与发布合作伙伴进行安静的 Beta 测试,包括 AssemblyAI、DuckDuckGo、Notion、Quora 和 Robin AI,具体产品包括为 DuckDuckGo 推出的 DuckAssist 工具、Quora 的 AI 聊天应用程序 Poe 和 AI 写作助手 Notion AI 提供支持。

Claude也在积极的与外部伙伴紧密合作,涵盖问答社区、在线教育、法律领域、数字媒体等。- Quora:通过人工智能聊天应用程序Poe向用户提供Claude的对话能力。
- Juni Learning:一个在线教育解决方案提供商,利用Claude模型对Discord Juni Tutor Bot的能力进行增强,通过在线辅导的方式提升学生的学术能力。
- Notion:Claude 与 Notion 合作以提高工作和学习场景中的生产力。
- DuckDuckGo:一个隐私浏览器,与Anthropic合作,推出全新工具DuckAssist,可以自动从维基百科中提取和总结信息,并对用户的问题进行回答。
- Robin AI:法律领域软件提供商,使用 Claude 来评估合同的特定部分,并提出对客户更友好的新的替代语言。
- AssemblyAI:数字媒体,Claude 帮助其 API 平台大规模转录和理解音频数据。

Claude 的主要优势有以下几点:Claude 比 ChatGPT 更可控,Claude 比 ChatGPT 更诚实,Claude 比 ChatGPT 更无害。

封闭测试期间的客户报告说,Claude 基本不会生成有害的输出,更容易交谈,可操作性更强,不需要精心组织语言,同时还可以对性格、语气和行为等进行设计等。

欢迎各位关注我的个人微信公众号:HsuDan,我将分享更多自己的学习心得、避坑总结、面试经验、AI最新技术资讯。

参考:
https://crfm.stanford.edu/2023/03/13/alpaca.html
https://www.thepaper.cn/newsDetail_forward_22302856
https://www.ithome.com/0/681/614.htm
https://replicate.com/blog/fine-tune-alpaca-with-lora?continueFlag=4ecae39885197a5c008faabbefb5c824
https://www.thepaper.cn/newsDetail_forward_22455425
https://zhuanlan.zhihu.com/p/616929229


http://chatgpt.dhexx.cn/article/gat3bAmv.shtml

相关文章

分享一个苹果Siri接入ChatGPT的方法,让你的Siri更智能

今天我给大家分享一个苹果Siri接入ChatGPT的方法,让你的Siri更智能; 方法很简单,只需要几步: 1、只需添加一个快捷指令 2、在唤醒Siri后,说出指令名称即可 3、Hey Siri 智能助手,我在 4、长按指令可以…

【ChatGPT】多国“围堵”,万人抵制,AI发展的红线到底在哪?

个人主页:【😊个人主页】 文章目录 前言Chatgpt💻💻💻多国拟发ChatGPT禁令🈲🈲🈲开端发展高潮 联名抵制自我辩解🎛️🎛️🎛️名家争言比尔盖茨&am…

ChatGPT或要推出APP,OpenAI官宣为ChatGPT招募移动端开发工程师

文 | 兔子酱 OpenAI官方招聘页面放出了英雄帖,他们正在为ChatGPT招聘移动端工程师: 传送门: https://openai.com/careers/mobile-engineering-manager-chatgpt 其中,跨iOS和Android的工程主管年薪为20至37万美元,总薪酬还包括慷慨…

把ChatGPT的所有插件整理成中文后!真要说卧槽了..

大家好,我是五竹。 ChatGPT如约向用户开放了联网功能和众多插件,五竹从上周开始满怀着热情等待着,看别人的测评效果都快把我羡慕哭了。最终等来的却是Plus账号给封了,而且至今也没有续上,只能说非常无奈。算了&#x…

【回眸】ChatGPT Plus(GPT4体验卡)

前言 没忍住诱惑,开了个GPT4.0的会员,给大家表演一波 开通成功 开始问问题 写一个CNN疲劳驾驶监测代码,要求{使用Python语言,使用包,能成功运行,需要调用电脑摄像头,要求GUI界面有一些参数…

手把手教你做一个 ChatGPT !丝滑小白版,只需一张单卡 GPU,轻松开启个性化训练!...

大家好,我是贺同学。 一直以来密切关注 ChatGPT 的趋势,最近相关的话题可谓是热度不减,虽然从事互联网行业,但一直对 LLM 相关领域关注较少。 最近的 ChatGPT 的火热,让我对 LLM 相关开源社区也关注了起来,…

Python+ChatGPT实战之进行游戏运营数据分析

文章目录 一、数据二、目标三、解决方案1. DAU2. 用户等级分布3. 付费率4. 收入情况5. 付费用户的ARPU 最近ChatGPT蛮火的,今天试着让ta写了一篇数据分析实战案例,大家来评价一下! 一、数据 您的团队已经为您提供了一些游戏数据,…

使用ChatGPT实现可视化操作扫雷小游戏 【java代码实现】

代码 package com.atguigu.java4;/*** author zyz* version 1.0* data 2023/2/20 14:55* Description:*/import javax.swing.*; import java.awt.*; import java.awt.event.ActionEvent; import java.awt.event.ActionListener; import java.util.Random;class MineSweeper ex…

ChatGPT惊人语录大赏

作者 | 智商掉了一地 编辑 | 夕小瑶的卖萌屋 点击下方卡片,关注“自动驾驶之心”公众号 ADAS巨卷干货,即可获取 点击进入→自动驾驶之心【全栈算法】技术交流群 这几天ChatGPT实在太火了,笔者的朋友圈已经被ChatGPT的各种金句刷屏了&#xff…

ChatGPT实现游戏 NPC 对话

游戏 NPC 对话 玩游戏的一个必要过程,就是和 NPC 对话,领取任务,获取线索。有趣的游戏,会根据用户和 NPC 交流时的不同选择,触发不同剧情走向。甚至多个 NPC 之间还能有罕见的隐藏剧情,等待用户发掘。可以…

ChatGPT使用Java编写猜数游戏

目录 使用ChatGPT编写的代码如下 存在的问题 改进的Java代码 猜数游戏相信很多学编程的同学都听说过,在学习循环的那一节的课后作业相信就有这个题目,正好现在ChatGPT正火的时候,我也尝试了让它写一下这个代码,很遗憾&#xff0…

调戏chatGPT(一)玩个猜数字游戏

最近chatGPT火得不要不要的,本着热情拥抱新生事物的原则,我也去测试了一下,发现这货果然很智能,我们是不是已经处在AI技术革命性突破的前夜了呢。 chatGPT的功能远远不止聊天,所以我用一个专栏来展示一下,…

ChatGPT 设计游戏剧情 | 基于 AI 5 天创建一个农场游戏,完结篇!

欢迎使用 AI 进行游戏开发! 在本系列中,我们将使用 AI 工具在 5 天内创建一个功能完备的农场游戏。到本系列结束时,您将了解到如何将多种 AI 工具整合到游戏开发流程中。本文将向您展示如何将 AI 工具用于: 美术风格 游戏设计 3D 素材 2D …

ChatGPT设计的游戏火了!玩法代码一力搞定,自称「原创」却被指:抄袭了

鱼羊 发自 凹非寺量子位 | 公众号 QbitAI ChatGPT,现在多了一重“游戏制作人”的身份。 不仅游戏玩法由它设计,连游戏代码和网页,也全部由ChatGPT搞定。 游戏界面长这样: ChatGPT还亲自给这个小游戏取了个名字:Sumplet…

用ChatGPT做一款二次元卡牌游戏!完成度超90%,即将开放源码!

1.0 游戏策划设计 孙二喵,继上次借助ChatGPT做了一个3D小游戏后,很多朋友问,AI可以做大型项目么?还是仅限于简单的小游戏。 *AI生成的3D小游戏 所以二喵准备接着用 AI 设计一款中型体量的卡牌游戏,发布到微信小游戏和海…

【广州华锐互动】ChatGpt在元宇宙游戏领域有哪些应用场景?

游戏已经成为了许多人的娱乐方式。然而,如何提高游戏体验仍然是一个关键的问题。这里,我们介绍一种新型的技术:ChatGpt。 ChatGpt是一种基于自然语言处理的人工智能技术,可以帮助游戏开发人员制作出更加智能的游戏。它可以在元宇宙…

ChatGPT游戏领域的创新助手|小智ai

ChatGPT丨小智ai丨chatgpt丨人工智能丨OpenAI丨聊天机器人丨AI语音助手丨GPT-3.5丨开源AI平台 导语: ChatGPT(Chat Generative Pre-trained Transformer)作为一种先进的自然语言处理模型,不仅在对话领域取得了突破,而且…

NPC 也有了生命?当 ChatGPT 注入游戏你能想象吗

🍎道阻且长,行则将至。🍓 目录 引言:西部世界元宇宙,还记得吗ChatGPT 的世界? 下图就是一个 ChatGPT 小镇: 引言:西部世界 《西部世界》以一个虚构的游戏般的“西部世界”为背景…

ChatGPT 又整活了,从零开始设计并实现一个类似数独的游戏 Sumplete

ChatGPT 又整活了。这次是从零开始设计并实现一个类似数独的游戏。 数独应该很多人都玩过,规则也很简单。 那能不能设计一款与数独类似的新游戏呢?国外有位叫 Daniel Tait 的工程师就想到了让 ChatGPT 来试试。经过几个小时与 ChatGPT 的对话&#xff0c…

ChatGPT让游戏NPC活了!交流不再靠选项,问什么答什么,网友直呼童年梦想成真...

梦晨 发自 凹非寺量子位 | 公众号 QbitAI 这个游戏里的NPC,活了! 不是傻傻重复几句固定台词,而是你问什么就答什么。 玩家也不是从几个固定选项中选,而是打字对话,想说什么就说什么。 在游戏中,玩家扮演一个…