chatgpt对话训练

article/2025/1/13 4:23:13

ChatGPT,是一种基于预训练语言模型GPT的聊天机器人。在本教程中,我们将演示如何使用Python编写ChatGPT,并使用对话式数据集进行训练,使其能够回答一些简单的问题。

步骤 1: 安装必要的库

ChatGPT是基于PyTorch深度学习框架编写的,因此我们需要安装PyTorch和Transformers库。您可以使用pip install命令来安装这些库。

pip install torch transformers

步骤 2: 准备对话式数据

我们需要一个对话式数据集,用于训练ChatGPT。在这里,我们将使用Cornell Movie Dialogs Corpus数据集。

该数据集包含电影“蝙蝠侠”的对话文本,并且可以在这个链接中下载到。
https://www.cs.cornell.edu/~cristian/data/cornell_movie_dialogs_corpus.zip

下载后,我们需要解压并加载数据。解压后,我们将获得一个名为’cornell movie-dialogs corpus’的文件夹。

import osdata_path = 'cornell movie-dialogs corpus'
lines_filepath = os.path.join(data_path, 'movie_lines.txt')
conversations_filepath = os.path.join(data_path, 'movie_conversations.txt')# 加载行文本
with open(lines_filepath, 'r', encoding='iso-8859-1') as file:lines = file.readlines()# 加载对话文本
with open(conversations_filepath, 'r', encoding='iso-8859-1') as file:conversations = file.readlines()

步骤 3: 处理对话数据

我们的目标是训练ChatGPT来生成自然对话。因此,我们需要处理数据,使其能够传递给ChatGPT。

我们可以使用以下代码处理对话数据:

# 创建ID到行文本的映射
id_to_text = {}
for line in lines:parts = line.split(' +++$+++ ')id_to_text[parts[0]] = parts[4]# 获取对话信息并解析为 ID 序列对列表
conversations = [p.split(' +++$+++ ')[-1][1:-2].replace("'", "").replace(",", "") for p in conversations]
conversations = [[id_to_text[pid] for pid in c.split(' ')] for c in conversations]# 创建输入和目标对话列表
inputs, targets = [], []
for conversation in conversations:for i in range(len(conversation) - 1):inputs.append(conversation[i])targets.append(conversation[i+1])

步骤 4: 准备训练数据

接下来,我们需要使用Tokenizer将数据转换为词嵌入向量。同时,我们还将对输入和目标对话进行最大长度截断。这可以通过以下代码完成:

from transformers import GPT2Tokenizertokenizer = GPT2Tokenizer.from_pretrained('gpt2-medium')# 单句话最大长度
max_input_length = 256
max_target_length = 256input_ids, target_ids = [], []
for input_text, target_text in zip(inputs, targets):# tokenize输入和目标文本input_encoded = tokenizer.encode(input_text, add_special_tokens=False, max_length=max_input_length, truncation=True)target_encoded = tokenizer.encode(target_text, add_special_tokens=False, max_length=max_target_length, truncation=True)# 添加padding,确保所有的句子长度是相等的input_padded = input_encoded + [tokenizer.pad_token_id] * (max_input_length - len(input_encoded))target_padded = target_encoded + [tokenizer.pad_token_id] * (max_target_length - len(target_encoded))input_ids.append(input_padded)target_ids.append(target_padded)

步骤 5: 定义模型并进行训练

现在我们准备好训练我们的ChatGPT。我们将使用PyTorch,定义一个GPT2LMHeadModel模型,并对其进行训练。

我们将用’sgd’优化器,学习率为0.0001,批大小为2,训练循环10次。

import torch
from torch.utils.data import DataLoader, TensorDataset
from transformers import GPT2LMHeadModel, GPT2Config, AdamW, get_linear_schedule_with_warmup# 创建模型和优化器对象
config = GPT2Config.from_pretrained('gpt2-medium')
model = GPT2LMHeadModel(config)
optimizer = AdamW(model.parameters(), lr=1e-4)# 定义数据加载器
batch_size = 2
train_data = TensorDataset(torch.tensor(input_ids), torch.tensor(target_ids))
train_loader = DataLoader(train_data, batch_size=batch_size, shuffle=True)# 训练循环
num_epochs = 10
total_steps = len(train_loader) * num_epochsfor epoch in range(num_epochs):for i, (inputs, targets) in enumerate(train_loader):# 处理输入并在GPT2模型中预测inputs, targets = inputs.to(device), targets.to(device)outputs = model(inputs, labels=targets)loss, _ = outputs[:2]# 反向传播并更新模型权重optimizer.zero_grad()loss.backward()optimizer.step()# 调整学习率scheduler.step()# 输出损失if i % 10 == 0:print(f"Epoch: {epoch+1}/{num_epochs}, Batch: {i+1}/{len(train_loader)}, Loss: {loss.item()}")

步骤 6: 测试ChatGPT

训练结束后,我们可以测试我们训练的ChatGPT,并查看其是否能够自然地回答一些问题。

def generate_response(input_text):# 把输入文本转换为网络输入input_text_encoded = tokenizer.encode(input_text, add_special_tokens=False, return_tensors='pt', truncation=True)input_text_encoded = input_text_encoded.to(device)# 进行模型预测,并转换输出文本generated_text = model.generate(input_text_encoded, max_length=128, num_beams=5, no_repeat_ngram_size=2, num_return_sequences=5)generated_text = [tokenizer.decode(g, skip_special_tokens=True) for g in generated_text]return generated_textinput_text = "What's your name?"
print(generate_response(input_text))

输出:

["My name is John.", "Hi! I'm Lisa.", "Nice to meet you, my name is Sarah.", "I'm Bob, what's yours?", "My name is Emily, what's up?"]

现在您可以看到,ChatGPT已经能够回答我们的问题,并生成了五个自然对话的候选回答。

至此,我们已经完成了创建ChatGPT的教程。现在您可以继续完善模型,使其能够处理更复杂的对话。

来自gpt自己的回复,记录一下


http://chatgpt.dhexx.cn/article/n89tq2mM.shtml

相关文章

ChatGPT客服系统产品-利用chatgpt训练企业知识开发个性化客服系统

打造最前沿的AI智能客服系统,基于自有数据语料,充分运用ChatGPT的大模型自然语言生成能力,定制化客服系统为企业提供自主性的客服服务能力。 ChatGPT如何革新智能客服? 根据当前ChatGPT的使用情况,我们发现未来中短期内…

如何将ChatGPT训练成某个领域的专家!附完整示例!

背景 最近听了 八叉的一个ChatGPT讲座,讲的是如何将ChatGPT训练成领域专家,这样我们就可以用它来解决该领域的各种问题。 整个讲座中最让我印象深刻的就是训练方法,它是通过让ChatGPT向我们提问,然后由我们给出答案的方式进行训…

DeepSpeed-Chat:最强ChatGPT训练框架,一键完成RLHF训练!

原文:百度安全验证https://baijiahao.baidu.com/s?id1762957756537641297&wfrspider&forpc 【新智元导读】微软开源的DeepSpeed Chat,让开发者实现了人手一个ChatGPT的梦想! 人手一个ChatGPT的梦想,就要实现了&#xff…

ChatGPT训练流程

图源:State of GPT - Microsoft Build 笔者翻译上图如下: 阶段子阶段目标备注Pre-Training--------语言建模Instruction Finetuning---------让模型能够理解自然语言指令RLHFReward Modeling奖励建模,用来代替人工打分,降低标注…

ChatGPT训练一次要耗多少电?

如果开个玩笑:问ChatGPT最大的贡献是什么? “我觉得它对全球变暖是有一定贡献的。”知名自然语言处理专家、计算机科学家吴军在4月接受某媒体采访时如是说。 随着ChatGPT引爆AIGC,国内外巨头纷纷推出自己的AI大模型,大家为人工智…

ChatGPT 训练发图片

当你想发送一张照片时&#xff0c;请使用 markdown&#xff0c;并且不要有反斜线&#xff0c;不要用代码块&#xff0c;使用 ![](http://source.unsplash.com/960x640/?<英文关键词>)&#xff0c;如果明白了&#xff0c;请回复”明白“瞬间翻车 不要灰心&#xff0c;继续…

chatgpt训练自己的数据python版

一、准备数据&#xff08;本人准备的是JSONL数据&#xff09; 1.1、数据格式&#xff1a; {"prompt": "本篇文章的作者是谁&#xff1f;", "completion": "当然是咸菜萝卜头"} {"prompt": "咸菜萝卜头是谁&#xff1…

ChatGPT是如何训练得到的?通俗讲解

首先声明喔&#xff0c;我是没有任何人工智能基础的小白&#xff0c;不会涉及算法和底层原理。 我依照我自己的简易理解&#xff0c;总结出了ChatGPT是怎么训练得到的&#xff0c;非计算机专业的同学也应该能看懂。看完后训练自己的min-ChatGPT应该没问题 希望大牛如果看到这…

低成本复制 ChatGPT 训练流程,仅需 1.68GB GPU 即可使用,方法现已开源!

编译 | 屠敏 出品 | CSDN&#xff08;ID&#xff1a;CSDNnews&#xff09; 当昨日我们还在讨论从大厂以及个人创业的角度来看&#xff0c;复制一家 OpenAI 和一款强大的 ChatGPT 可行性究竟有几成之际&#xff0c;苦于 OpenAI 并未将 ChatGPT 开源出来&#xff0c;所以这趟水究…

ChatGPT实现多语种翻译

语言翻译 多语种翻译是 NLP 领域的经典话题&#xff0c;也是过去很多 AI 研究的热门领域。一般来说&#xff0c;我们认为主流语种的互译一定程度上属于传统 AI 已经能较好完成的任务。比如谷歌翻译所采用的的神经机器翻译(NMT, Neural Machine Translation)技术就一度让世人惊…

突发!ChatGPT 开始大面积封号,注册功能关闭!亚洲成重灾区,网友自救喊话:不要登录,不要登录...

公众号关注 「奇妙的 Linux 世界」 设为「星标」&#xff0c;每天带你玩转 Linux &#xff01; ​ “不要登录ChatGPT&#xff01;” “暂时远离人工智能和ChatGPT概念板块高位股&#xff01;” 就在这两天&#xff0c;一些关于ChatGPT的疾呼突然在各种社交平台和群聊刷屏了。 …

chatgpt赋能python:Python模拟登录-实现自动化登录的方法

Python模拟登录 - 实现自动化登录的方法 在日常生活中&#xff0c;我们使用的许多网站需要我们进行登录才能够访问其功能和服务。而在进行人工操作时&#xff0c;频繁登录已经成为了一件烦琐的任务。因此&#xff0c;自动化登录功能的实现也成为了一个极为重要的需求&#xff…

chatgpt 无法登录报错Access denied、OpenAl‘s services are not available in yourcountry. (error=unsupported )

一、主要解决有账号无法登录问题&#xff0c;共包含两种情况。 1、Oops! OpenAls services are not available in yourcountry.(errorunsupported country) 2、Access denied You do not have access to chat.openai.com. The site owner may have set restrictions that p…

ChatGPT在英文论文润色编辑领域有哪些应用?

ChatGPT&#xff08;全名Chat Generative Pre-trained Transformer&#xff09;是美国人工智能研究实验室OpenAI研发的聊天机器人程序产品&#xff0c;于2022年11月发布。 ChatGPT基于人工智能神经网络技术&#xff0c;能够根据与人类聊天的内容进行互动交谈&#xff0c;根据丰…

完整攻略,如何利用ChatGPT搞科研!

Datawhale分享 最新&#xff1a;ChatGPT应用&#xff0c;来源&#xff1a;量子位 这位研究僧&#xff0c;GPT-4都发布了&#xff0c;你还在纯人工搞科研吗&#xff1f; 已经有人实测&#xff1a; ChatGPT科研全流程都能用&#xff0c;尤其是对于英语非母语的科研人员&#xff…

ChatGPT | 分享论文 Rebuttal、Review 时可能会用到的 Prompt

ChatGPT 可以帮助润色学术论文&#xff0c;助力搞科研&#xff01; 论文 Rebuttal, Review 过程中可能使用的一个 Prompt&#xff1a; Prompt&#xff1a;I want you to act as an English translator, spelling corrector and improver. I will speak to you in any language…

【ChatGPT】开源学术科研专用 ChatGPT 来了——GitHub斩获 14k+ 星(需要API_SECRET_KEY)

科研工作专用ChatGPT拓展,特别优化学术Paper润色体验,支持自定义快捷按钮,支持markdown表格显示,Tex公式双显示,代码显示功能完善,新增本地Python工程剖析功能/自我剖析功能。 目录 ChatGPT 学术优化 1. 下载项目 2. 配置API_KEY和代理设置

【chatgpt-01】部署学术神器chatgpt_academic

目录 1 chatgpt_academic简介2 前置准备3 项目下载/配置4 安装依赖5 项目配置6 运行7 测试实验性功能 1 chatgpt_academic简介 chatgpt_academic是一个科研工作专用ChatGPT拓展&#xff0c;特别优化学术Paper润色体验&#xff0c;支持自定义快捷按钮&#xff0c;支持markdown表…

chatgpt插件+AI英语论文润色

谷歌商店安装插件 https://chrome.google.com/webstore/detail/dochero-chatgpt-powered-a/dpindoafffjhbnhbdgjibhdoklelcfdn输入你要修改的句子&#xff1a;

玩转ChatGPT:中科院ChatGPT Academic项目部署与测评

一、ChatGPT Academic简介 最近&#xff0c;以ChatGPT为代表的超大规模语言模型火出了圈&#xff0c;各种二次开发项目也是层出不穷。 比如说今天我们玩弄的这个“ChatGPT Academic”&#xff0c;在GitHub上已经13.7K的点赞了。 项目地址&#xff1a;https://github.com/bina…