ChatGPT介绍详解

article/2025/5/13 10:13:48

目录

前言

ChatGPT是什么?

ChatGPT为什么这么强

GPT系列发展历程

能力诱导微调

 结合人类反馈的强化学习(RLHF)

​编辑

大模型使用范式

 情境学习​编辑

思维链 ​编辑

 Zero-shot Cot​编辑

Planning

大模型关键技术

 仍存在问题​编辑

Q&A

写在最后


前言

写在前面···作为半个曾经的NLPer,我一直很想从原理,从Transformer开始然后从GPT1-4然后RLHF介绍ChatGPT。但是就是在实验室听了来自人大高瓴的赵鑫老师的分享之后,感觉老师是从一个很宏观很大的一个角度去思考ChatGPT,可能对技术了如指掌的人才可能跳出技术去往大方面想,而像我这种对技术不了解的人满眼都是技术实现细节,有点一叶障目不见泰山的感觉。

听了赵老师的分享后收获颇丰,打算记录下来也给大家分享一下,希望能给大家带来一些启发。

转侵删。

ChatGPT是什么?

浅模仿老师做了一个ppt

背后是大语言模型背后支撑的人工智能技术

ChatGPT为什么这么强

Nlp model 做加大,有动机,增大算力数据量

 大模型的涌现能力

多付出一些,有额外的收益,对于指数模型,最后都会出现边际递减

一开始加的他有很大收益,后边就小了,后期要付出很多

只有拓展法则收益不多,

20年有人做的paper,但没人去做

涌现能力——任务对模型困难

使大力就能干

有些任务把模型尺寸加大,就能做了

把模型加大能够解决一批无法解决的问题

 你不知道最后会发生什么,不知道上限

多跳Q- A任务,模型至少不少于两层

任务很怪,取模运算啥的,很多无聊的任务

大模型就是能解决很多解决不了的东西,不论为什么

解释一下这个块。就是普通RNN对于大量数据的处理能力是不足的,举个例子🌰,给RNN一大堆数据,RNN可能只能吃掉了20%,剩下的它吃不下。因此大模型很多都是基于Transformer的Encoder- Decoder架构(Encoder- Only或者Decoder-Only也算),因为Transformer吃得下!

原始定义不太学术

代码差不多,喂的数据决定了模型的情况(喂多少,喂什么)

Token数量——要很多卡

T5基于网页train,埃尔法code就全是代码

过滤低质量数据,去重,把隐私删掉

词云化,Token对应词典数大,tokenize不做有可能在下文遇见你不认识的词

GLM-6B-1.4T 的token

 

🌟在执行线上,gpt3没有训到位

不要把chatgpt当成模型,而是当成一个系统工——洗数据,分布式架构,36k16k(不是模型不止是炼丹和调参)

GPT系列发展历程

Openai2015成立

2016 在review上train 一个双向的lstm

把decoder扣掉了,transformer说encoder- decoder是最好的。只有一个trick

Bert模式,下游比较丑陋

decoder-only管用

⚠️🌟!!!个人觉得全篇高光点!!!

这页PPT我愿意按字给钱!!!真的一语惊醒梦中人!!!

 解决了多任务学习的问题,感觉这个是NLP领域得天独厚的优势。目前CV和图还未统一多任务学习的数据形式和任务目标,浅蹲未来三年的突破。(如果研究生有幸能做AI,浅浅许愿这个是我想出来的哈哈哈)

GPT2开通writing的,最好的一篇writing论文,虽然结果不惊艳

做scanning

一亿到十五亿参数

无监督多任务求解器

多任务学习(cnn也可做)

input,task刻画output

但是数据形式和目标难以统一(情感分类,识别)

全部自然语言表达

如果我pretrain预料覆盖度强,下游都是pretrain优化目标

子任务都是pretrain语料的优化目标

 

GPT3(few-shot learning)

能力强,但不能解决很多任务

样例放在提示里给模型去学

Codex:解数学题特别强,推理能力显著提升。

初代的不强,通过类似于code几轮训得越来越好

instructgpt和chatgpt同胞模型

Ins是一问一答,chat是用dialog进行优化。

 

 

Gpt3.5和gpt4平时一般,但题目一难,gpt4就强了

Scanning loss 用一点数据估计整个模型的参数,就很简便

预测下一个词的重要性(预测下一个词相当于把上述多任务学习的目标进行了一个统一)

相当于玩剧本杀,看完自己的剧本和已知知识推知凶手的名字。(不仅仅是预测一个词的生成任务,更可以进行逻辑分析作为解答)

能力诱导微调

 

指令微调救不了模型推理差——文本

预测output拟合

让语言模型理解任务,输入输出去执行

 

 结合人类反馈的强化学习(RLHF)

老师这个RLHF的PPT做得太好了www等我有时间一定对标老师的这个PPT做一个我自己的www

 

 大模型可以给自己生成任务描述——self instruct

RLHF:2015年成立的做强化学习的,如何ppo(openai自研发的算法)

怎么让人在这个链路中发挥作用

 

 

instruct tuning

Sft——指令微调

不是必须

大模型使用范式

 情境学习

思维链 

 

Rlhf模型很少,难整

给的QA并不直接相关,大概懂得输入输出关系

隐式更新

 Zero-shot Cot

 zero shot:魔法咒语

有时候输出错的能对

大模型自己生成cot然后自己研究自己的cot

Planning

planning

一次搞不定

多次调用

任务规划生成plan执行修正plan

大模型关键技术

 仍存在问题

底层理论:没有理论支撑

幻象:生成一些不正确的事实,也很难识别自己的幻象

评测方法:评的都是选择填空的榜,衡量知识维度是有帮助,但是gpt就没法比了,选项只会拉大和gpt的差距

知识更新困难:硬性扩展成中文,不合适

结构化生成:插件、数据库接口

Lama:生成推理弄没了

轻量化部署:还是比较困难

最后推荐一下赵老师实验室的大模型综述文章~

Q&A

最终范式:预测下一次会不会是最好的,可能会有优势,有限参数用于生成一件事上,e-d也有他的优势。本来算力就不够也不太会做探索,会持续比较久。

关于encoder作用:

Glm-130b就是前缀encoder

有很多问题,错了停不下来了,没法控制

对于深度学习来说,数据还是模型更重要?

不是所有模型可以把知识都吃住,图尽管很多,但是架构不一定能全吃进去,transforemer可以吃更多,rnn会丢。

解一堆任务——必是数据重要的,光靠模型非常难。alphago最多下个围棋

幻象:是自回归decoder原因?幻象原理不好解释,但是小模型几百兆模型比较弱,也和创造力有关。

没有解决幻象,控制不住!

但是存在幻象并不是评价一个模型的主要因素。正因为模型本身具有创造力,才会导致幻象的出现。小模型根本连出现幻象的机会都没有。

做量化,稀疏transformer做一些稀疏架构,不容易做成,剪枝简单,并行难。稀疏化做更深一点

Nlp暂时领先,会有一堆mini模型以语言为基础,大模型和图接口,没有统一方式去建模。多任务多种数据形式用文本搞定了,图片视频很困难。cv没有大模型,图也没有大模型,不一定会绑定,比较吃力。

推荐领域:窗口有限,ide文本化会丢掉很多信息,噪音多,只认文本,不认id,设计预训练

人类知道现实和幻象,都是隐式存在,回到确定性发展。大模型很不自主,不知道什么时候用的是对的什么是错的。随机生成的好,但是会有幻象。但他自己识别不出幻象。加指令微调可以,但能固化的知识有限。

能做的:领域适配,知识更新。

小模型没有全参数大模型好。

特定任务超过他

为什么做大,做大有什么好处都没想清楚。

数据多能记得住,语义性差一点,内在逻辑是什么,结构知识的迁移性是很弱的。

任务的通用性,用什么模式可以解决通用问题

对一个问题设定优化目标,其他任务用其他优化目标。但是他针对了多任务(我觉得是语言模型最本质的特点)

找到本质任务大图就做出来了

人大大模型是指令微调,耗卡,全自主做基座

真正做学术探索很少  百亿规模

写细节

写在最后

本来想好好总结一下写这篇博客的,但是最近太忙太忙了。只能把分享会上的ppt截图和分享会时的零碎感想放上来,并没有做自己的总结以及自己的ppt。

等我闲下来一定好好总结一下做一个自己的介绍,最好能兼顾赵老师的这些思路以及部分实现细节(毕竟大家也不都是NLP大佬),希望我的NLP学习之路不会烂尾。

最后一句话写给自己,不论最后能不能学AI,也不要放弃心中对AI的热爱🫶,努力更上技术迭代,即使作为旁观者。


http://chatgpt.dhexx.cn/article/wT8RgDcn.shtml

相关文章

ChatGPT技术原理

ChatGPT技术原理 ChatGPT技术原理概要第一阶段:冷启动阶段的监督策略模型第二阶段:训练回报模型,reward model第三阶段:强化学习增强预训练模型的能力 ChatGPT技术相关简介L2R(learning to rank) 相关引用 ChatGPT技术原理概要 第…

基于DeepSpeed训练ChatGPT

基于DeepSpeed训练ChatGPT 最少只需一张32G GPU,自己也可以训练一个ChatGPT! 最近微软发布了一个基于DeepSpeed的训练优化框架来完成ChatGPT类模型的训练,博主对其进行了研究并通过此博文分享相关技术细节。 一、配置预览 1、开源仓库&…

语言模型 ChatGPT MOSS 使用体验分享

今早起床听闻复旦大学自然语言处理实验室团队发布了国内首个类ChatGPT对话语言模型MOSS。在好奇心的驱使下,我向贵实验室的小伙伴要来内测邀请码试玩了一番,顺便把MOSS与ChatGPT的试玩结果进行了对比,以下是部分对话历史记录: 目录…

简评ChatGPT

朋友发来两幅图片,内容是让ChatGPT介绍我(庄晓立/LIIGO),结果闹了大笑话。 这第一幅图,它介绍的内容完全与我无关,我无从知道是否真的有这个与我同名同姓的人,也无从知道其事迹是否真实&#x…

ChatGPT的评估指标有哪些?微调与上下文学习是否存在相似性?

NLP 分很多的任务,不同的任务有不同的指标来度量模型质量,比如AUC,Precision/Recall是分类模型的度量指标。 ChatGPT可以看作一个生成式语言模型,简单说就是给它输入一段文字,它会输出另一段文字,当然输出和…

如何评价一个新技术——以 ChatGPT 为例

开源社KAIYUANSHE 近期微信公众号订阅功能做调整啦! 没有被星标的账号在信息流里可能不显示大图了! 快星标⭐我们,就可以及时看到发布的文章啦! STEP01 点击右上角标志 STEP02 点击【设为星标】 缘起 2015 年的时候,我…

对于chatGPT的评价-ChatGPT的内容生成

chatGPT的优缺点 ChatGPT是一种基于深度学习技术的自然语言处理算法,其相比传统的自然语言处理算法具有很多优势。下面是ChatGPT的优点和缺点: 优点: 可适应多种任务:ChatGPT是一个通用的自然语言处理算法,可以适应多…

建立自己的ChatGPT:LLama私有化部署及测试

大语言模型(LLM)现在非常流行,可惜ChatGPT等都不开源。大家没法搭建一个自己的环境来感受以下。幸好Meta开源了LLama,这是LLama的介绍: https://ai.facebook.com/blog/large-language-model-llama-meta-ai/ 具体技术…

windows下免费本地部署类ChatGpt的国产ChatGLM-6B

ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)。 Chat…

ChatGPT是怎么实现的?为什么它这么有效?

ChatGPT 能够自动生成类似于人类写作的文本,这一点非常引人注目,也令人意外。但它是如何实现的?为什么它能够如此出色地生成我们认为有意义的文本?我的目的是在这里概述ChatGPT内部的运行情况,并探讨它能够如此出色地产…

ChatGPT这么强大吗

ChatGPT和它带来的AI时代是一次新的科技革命,AI时代就此拉开序幕,我们必须紧跟时代,否则就会被时代抛弃。本星球分享chatgpt的最前沿应用和实战案例,同时会定期邀请业内大佬做分享。 为什么AI时代很恐怖,现在我们看到的…

< 每日闲谈:你真的了解 “ ChatGPT ” 嘛 ? >

< 每日闲谈&#xff1a;你真的了解 “ ChatGPT ” 嘛 &#xff1f; > &#x1f449; 前言&#x1f449; OpenAI的创立&#x1f449; ChatGPT有何过人之处&#xff1f;> 效果演示 &#x1f449; OpenAI看家之作 — GPT自然语言模型> GPT发展史> 里程碑-GPT3> …

我面试了 ChatGPT 的 PM (产品经理)岗位,它几乎得到了这份工作!!!

如何检测人工智能自信但肤浅的答案? How to detect the AI’s confident but shallow answers? 我面试过很多产品经理候选人,其中一种常规面试形式(在 PM 面试循环中非常标准)是产品Sense面试。受到最近推出的 ChatGPT 和 Jackie Bavaro 的以下推文的启发,我决定面试 Cha…

如何让ChatGPT成为你最佳的模拟面试官

正在上传…重新上传取消 ChatGPT云炬学长 1 人赞同了该文章 如何让ChatGPT成为你最佳的模拟面试官随着技术的不断发展&#xff0c;越来越多的企业开始使用人工智能面试官来帮助筛选候选人&#xff0c;ChatGPT作为其中的一种代表&#xff0c;正在受到越来越多的关注。那么如何…

chatGPT整理的前端面试题目(一)

1.HTML 部分 ​ 1.1HTML基础知识点 Html5 与 html4的区别&#xff1a; html5新增语义化标签&#xff0c;如<header> <nav>等 Html5新增表单控件&#xff0c;如<input type"date"> <input type"color">等 Html5新增多媒体标签&…

ChatGPT 当我面试官的一天

你想过ChatGPT作为面试官会是什么样吗&#xff1f; 各种题库刷了又刷&#xff0c;但是无法进行面试实战&#xff1b;这下终于可以通过ChatGPT来模拟面试了&#xff0c;简直不要太爽了~ 这里只是基础问题&#xff0c;你可以给他输入你的工作经验&#xff0c;所学技能来让他给你…

当我把chatGPT作为Java面试官,它问了我这些问题

向chatGPT提问 面试官&#xff1a;你好&#xff0c;欢迎参加我们的Java面试。请先自我介绍一下。 面试者&#xff1a;非常感谢&#xff0c;我是一名资深Java开发工程师&#xff0c;具有丰富的Java开发经验。我在过去的五年里&#xff0c;主要从事了企业级Java应用的设计、开发…

2023ChatGPT整理回答的Java高级工程师面试题

本文整理了一些 ChatGPT 回答的 java 面试题,希望能够帮助到更多的人! 死锁与活锁的区别,死锁与饥饿的区别? 死锁和活锁都是多线程并发编程中的问题,它们的区别主要在于线程是否能够继续执行。 死锁指的是两个或以上进程因竞争资源而造成的一种互相等待的现象。当多个线…

使用ChatGPT面向岗位制作简历、扮演面试官

探索ChatGPT&#xff0c;协助工作学习创作。公众号「阿杰与AI」回复AI&#xff0c;加入社群&#xff0c;一同探讨&#xff0c;一同成长&#xff0c;比他人更进一步。 我们一起维护一个完全免费开源知识库。 1.AI、OpenAI、MidJourney发展史2.ChatGPT们对今后社会生活的影响3.目…

当我用ChatGPT面试项目经理,真有趣

早上好&#xff0c;我是老原。 上周chatGPT4正式发布&#xff0c;又掀起了一股热潮。 百度也不甘落后&#xff0c;文心一言紧随其后&#xff0c;虽然并没有激起太大的浪花&#xff0c;但不妨碍打工人们的“饭碗焦虑“也变得越来越大。 尤其是当越来越多的人亲自体验了GPT后&…