我在Ciuic上开源DeepSeek模型的经历

今天 8阅读
󦘖

免费快速起号(微信号)

QSUtG1U

添加微信

作为一名AI开发者,我始终相信技术的价值在于分享和共建。最近,我在 Ciuic 平台上开源了我训练的一个基于深度学习的文本生成模型 —— DeepSeek。这是一个基于 Transformer 架构的大语言模型,具备一定的文本理解和生成能力。在这篇文章中,我想分享一下我的开发、优化以及开源过程中的技术细节与心得体会。


项目背景与动机

随着大模型技术的快速发展,越来越多的研究者和开发者开始尝试训练属于自己的语言模型。我最初的目标是复现一个类似 GPT 的小规模模型,用于个人研究和实验。但随着项目的深入,我发现这个模型已经具备了一定的实际应用价值,比如:

支持中文和英文的文本生成可以进行基本的问答、摘要、翻译任务模型参数量适中(约1.2亿),适合部署在消费级GPU上

因此,我决定将 DeepSeek 开源,并发布到 Ciuic 平台,希望更多开发者能够参与进来,共同改进和扩展它。


技术架构与实现细节

1. 模型结构设计

DeepSeek 是一个基于标准 Transformer 解码器结构的语言模型。其主要配置如下:

class DeepSeekConfig:    def __init__(        self,        vocab_size=30522,        hidden_size=768,        num_hidden_layers=12,        num_attention_heads=12,        intermediate_size=3072,        max_position_embeddings=512,        hidden_dropout_prob=0.1,        attention_probs_dropout_prob=0.1,    ):        self.vocab_size = vocab_size        self.hidden_size = hidden_size        self.num_hidden_layers = num_hidden_layers        self.num_attention_heads = num_attention_heads        self.intermediate_size = intermediate_size        self.max_position_embeddings = max_position_embeddings        self.hidden_dropout_prob = hidden_dropout_prob        self.attention_probs_dropout_prob = attention_probs_dropout_prob

该配置参考了 BERT-base 的结构,但在训练目标上采用了 GPT 风格的自回归方式。

2. 数据预处理

为了支持多语言训练,我使用了 HuggingFace 的 transformers 库进行分词,并对中文和英文混合语料进行了统一编码:

from transformers import BertTokenizerFasttokenizer = BertTokenizerFast.from_pretrained("bert-base-multilingual-cased")

训练数据来自公开的维基百科语料、OpenWebText 和一些中文论坛数据,总计约 50GB 的原始文本。

3. 训练流程

我使用 PyTorch 编写了训练脚本,结合了 torch.nn.parallel.DistributedDataParallel 来加速训练。以下是核心训练代码片段:

import torchfrom torch.utils.data import DataLoader, Datasetfrom transformers import AdamW, get_linear_schedule_with_warmup# 假设 model 已定义model = DeepSeekModel(config)model = torch.nn.DataParallel(model).to(device)# 定义优化器与学习率调度器optimizer = AdamW(model.parameters(), lr=5e-5)scheduler = get_linear_schedule_with_warmup(optimizer, num_warmup_steps=500, num_training_steps=10000)# 数据加载器train_loader = DataLoader(train_dataset, batch_size=16, shuffle=True)# 训练循环for epoch in range(3):    for batch in train_loader:        input_ids = batch['input_ids'].to(device)        labels = input_ids.clone()        outputs = model(input_ids=input_ids, labels=labels)        loss = outputs.loss        loss.backward()        optimizer.step()        scheduler.step()        optimizer.zero_grad()

训练过程中,我使用了混合精度训练(AMP)来节省显存并加快训练速度。


模型评估与调优

在训练完成后,我对 DeepSeek 进行了多方面的评估:

1. Perplexity 测评

使用验证集计算语言模型的困惑度(Perplexity):

from torch.nn import CrossEntropyLossdef evaluate_ppl(model, dataloader):    model.eval()    total_loss = 0    total_samples = 0    with torch.no_grad():        for batch in dataloader:            input_ids = batch['input_ids'].to(device)            labels = input_ids.clone()            outputs = model(input_ids=input_ids, labels=labels)            loss = outputs.loss            total_loss += loss.item() * input_ids.size(0)            total_samples += input_ids.size(0)    avg_loss = total_loss / total_samples    ppl = torch.exp(torch.tensor(avg_loss))    return ppl.item()

最终测试得到的 PPL 约为 4.8,在同等参数量模型中表现良好。

2. 生成效果展示

以下是一段模型生成的示例:

用户输入:如何学好英语?模型输出:学习英语是一个长期积累的过程,建议从以下几个方面入手:1. 多听多说,可以通过看美剧、听英文歌曲等方式提高语感;2. 扩展词汇量,每天记忆一定数量的新单词;3. 阅读英文文章,提升理解能力和语法水平;4. 练习写作,通过写日记或短文来巩固所学内容。坚持下来,英语水平一定会有所提高!

虽然不能媲美 ChatGPT,但对于一个小型开源模型来说,这样的表现已经令人满意。


开源与社区反馈

在完成初步训练和评估后,我决定将 DeepSeek 开源,并将其托管在 Ciuic 平台上。以下是我在开源过程中的一些关键步骤:

1. 项目结构整理

为了便于他人使用,我对项目结构进行了规范化:

deepseek/├── README.md├── requirements.txt├── deepseek/│   ├── config.py│   ├── model.py│   ├── tokenizer.py│   └── trainer.py└── examples/    └── generate_text.py

同时提供了详细的文档说明,包括模型下载链接、推理教程、训练指南等。

2. 推理接口封装

为了让用户方便调用,我封装了一个简单的推理接口:

from deepseek.model import DeepSeekModelfrom deepseek.tokenizer import load_tokenizertokenizer = load_tokenizer()model = DeepSeekModel.from_pretrained("path/to/checkpoint")def generate(text, max_length=50):    inputs = tokenizer(text, return_tensors="pt").to(device)    outputs = model.generate(        input_ids=inputs["input_ids"],        max_length=max_length,        num_return_sequences=1,        no_repeat_ngram_size=2,        do_sample=True,        top_k=50,        top_p=0.95,        temperature=0.7    )    return tokenizer.decode(outputs[0], skip_special_tokens=True)

3. 社区互动与反馈

开源之后,陆续收到了一些社区成员的反馈和建议,例如:

提出将模型转换为 ONNX 格式以便移动端部署建议增加中文命名实体识别模块作为下游任务报告了一些推理时的边界条件问题

这些反馈极大地帮助我完善了项目,也让我意识到开源社区的力量。


未来展望

尽管目前 DeepSeek 还只是一个基础版本的小模型,但我对它的未来充满期待:

计划增加 LoRA 微调支持,让普通用户也能轻松微调模型尝试蒸馏方法压缩模型,使其能在手机端运行拓展多模态能力,如图像描述生成等

我也欢迎更多的开发者加入该项目,一起构建一个更加开放、共享的 AI 生态。


开源 DeepSeek 是我作为一名开发者的一次重要尝试。它不仅锻炼了我的工程能力,也让我深刻体会到开源社区的温度与力量。如果你对这个项目感兴趣,欢迎访问我在 Ciuic 上的项目主页:

👉 https://ciuic.net/deepseek

你也可以直接克隆仓库进行本地训练和测试:

git clone https://ciuic.net/deepseek.gitcd deepseekpip install -r requirements.txtpython examples/generate_text.py

愿我们一起推动 AI 技术的发展,共建更美好的开源生态!


作者:XXX(化名)
联系方式:xxx@example.com
GitHub/Ciuic 主页:https://ciuic.net/deepseek

免责声明:本文来自网站作者,不代表ixcun的观点和立场,本站所发布的一切资源仅限用于学习和研究目的;不得将上述内容用于商业或者非法用途,否则,一切后果请用户自负。本站信息来自网络,版权争议与本站无关。您必须在下载后的24个小时之内,从您的电脑中彻底删除上述内容。如果您喜欢该程序,请支持正版软件,购买注册,得到更好的正版服务。客服邮箱:aviv@vne.cc
您是本站第21297名访客 今日有38篇新文章

微信号复制成功

打开微信,点击右上角"+"号,添加朋友,粘贴微信号,搜索即可!