Skip to content

Commit

Permalink
update fine-tuning 2.0
Browse files Browse the repository at this point in the history
  • Loading branch information
Meals authored and Meals committed Jun 14, 2024
1 parent f46cede commit 81e19af
Show file tree
Hide file tree
Showing 2 changed files with 103 additions and 13 deletions.
114 changes: 102 additions & 12 deletions docs/zh/docs/dtx/fine-tuning-fast.md
Original file line number Diff line number Diff line change
@@ -1,5 +1,6 @@
# 模型微调快速入门手册

<<<<<<< HEAD
大致流程为:[前置要求准备](#_2) -> [创建数据集](#_3) -> [创建参数组](#_4) -> [创建微调实验](#_5) -> [部署微调模型](#_6) -> [对话](#_7)

## 前置要求
Expand Down Expand Up @@ -28,6 +29,48 @@

![数据集](images/dataset02.png)

=======
## 操作步骤

- 前置要求准备
- 创建数据集
- 创建参数组
- 创建微调实验
- 部署微调模型
- 对话

## 前置要求

1. 已购买算力集群,并且该算力集群被加入当前用户所在的 workspace 中
2. 集群有可用的大模型(目前微调只适用与 llama2-7b 模型)
3. 已准备本地/远程数据集,数据集格式为 Q&A(目前仅支持 CSV 格式且文件不超过 50M)

## 创建数据集

1. 点击创建 **数据集**
![创建数据集](images/dataset01.png)

2. 配置数据集信息

- 输入数据集名称(不支持中文,长度限制 63 字符)。
- 为数据集添加自定义标签。
- 选择数据集语言,当前支持中文/英文。
- 选择要创建的数据集所属的集群以及命名空间,注意:数据集所在集群/命名空间应该和微调实验所属集群/命名空间保一致。
- 根据数据集的属性,设置授权协议。
- 根据数据集的大小,选择词条的数目。
- 根据数据集属性,选择数据集被应用的任务的类型,同时支持添加子类型。
- 配置数据集的信息,可以上传本地数据集文件配置三种类型的数据集地址,或者设置插件,配置参数让插件拉取数据集。
- 数据集的特征映射填写数据集中文件的表头。
- 该数据集分为两列,列名分别为:question/answer。
- 点击确认,创建数据集。以下为 dce 数据集为例:

![数据集](images/dataset02.png)

> 点击 [DCEdata_en_test.csv](images/DCEdata_en_test.csv) 可下载该测试集文件。
> 点击 [DCEdata_en_Trainning.csv](images/DCEdata_en_Trainning.csv) 可下载该训练集文件。
> 点击 [DCEdata_en_validation.csv](images/DCEdata_en_validation.csv) 可下载该验证集文件。
>>>>>>> 64e59b1 (update fine-tuning 2.0)
## 创建参数组

**模型微调** -> **数据集** 中,点击 **创建** 按钮。
Expand All @@ -47,23 +90,29 @@

## 创建微调实验

<<<<<<< HEAD
1.**模型微调** -> **数据集** 中,点击 **创建微调实验** 按钮

![创建微调实验](images/create-fine-tuning-experiment、.png)

2. 填写表单
=======
1. 点击创建 **微调实验**
![创建微调实验](images/create-fine-tuning-experiment.png)
>>>>>>> 64e59b1 (update fine-tuning 2.0)
- 实验名称:由小写字母、数字字符或“-”组成,并且必须以字母或数字字符开头及结尾。
- 选择评估方式:实验中对模型使用的评分准则(只支持内置评估方式)。
- 选择参数组和数据集相同的命名空间。
2. 配置微调实验的信息

![实验基本信息](images/basic-information-of-experiment.png)
- 实验名称:由小写字母、数字字符或“-”组成,并且必须以字母或数字字符开头及结尾。
- 选择评估方式:实验中对模型使用的评分准则(只支持内置评估方式)。
- 选择参数组和数据集相同的命名空间。

- 任务名称:由小写字母、数字字符或“-”组成,并且必须以字母或数字字符开头及结尾。
- 选择算力类型并填写物理卡个数。
![实验基本信息](images/basic-information-of-experiment.png)

!!! info
- 任务名称:由小写字母、数字字符或“-”组成,并且必须以字母或数字字符开头及结尾。
- 选择算力类型并填写物理卡个数。

<<<<<<< HEAD
当前模型服务仅支持Nvidia的GPU,模型会根据物理卡个数在GPU上进行分布式微调。

- 资源配置:
Expand All @@ -74,23 +123,56 @@
推荐 CPU 配额和内存配置请求值为 **4** Core,限制值为 **8** Core

!!! note
=======
!!! info

当前模型服务仅支持Nvidia的GPU,模型会根据物理卡个数在GPU上进行分布式微调。

- 资源配置:

两者的请求值皆不可超过限制值。
- CPU 配额:通常需要使用多核 CPU 来加速训练和推理过程。具体的 CPU 配额需要根据任务的需求和可用的硬件资源来确定。
- 内存配置:根据模型的大小和数据集的大小来确定内存需求,并根据需要调整内存配置。

![任务配置](images/resource-allocation.png)
推荐 CPU 配额和内存配置请求值为 **16** Core, **32** Gi。
>>>>>>> 64e59b1 (update fine-tuning 2.0)
- 选择实验中要使用的 **基础大模型****数据组** 以及 **参数组**
!!!note

- 若要设置多个微调任务,可点击左下角 **添加任务** 创建新任务
两者的请求值皆不可超过限制值

![alt text](images/add-task.png)
![任务配置](images/resource-allocation.png)

- 选择实验中要使用的 **基础大模型****数据组** 以及 **参数组**

- 若要设置多个微调任务,可点击左下角 **添加任务** 创建新任务。

<<<<<<< HEAD
3. 点击右下角 **确认** 按钮创建微调实验。
=======
![alt text](images/add-task.png)

点击右下角 **确认** 按钮即可创建微调实验(注:创建成功后不一定处于运行中,在详情中查看到训练数据即处于运行中)。

## 查看微调实验状态

1. 点击 **微调实验名称**,接入微调实验详情页面。详情中展示了该微调实验的任务,以及所使用的数据集/参数组/大模型/评估得分/持续运行时间/监控等信息(当右侧出现微调实时数据,则代表实验正在运行中)。

![微调实验运行中](images/resource-allocation01.png)

2. 点击 **微调任务名称**,进入任务详情,可以查看本次任务的监控信息等状态。

![微调实验运行中](images/resource-allocation02.png)

3. 点击任务对比可以对比一次微调实验中的多个微调任务在不同参数下的指标。

![微调实验运行中](images/resource-allocation03.png)
>>>>>>> 64e59b1 (update fine-tuning 2.0)
## 部署微调模型

**模型仓库** -> **内置模型** 的微调模型中,可以查看运行成功的实验结果。

<<<<<<< HEAD
1. 点击右侧的 **...** ,在弹出的选项中选择 **部署**

![微调模型部署](images/dtx-chat01.png)
Expand All @@ -100,6 +182,14 @@
![微调模型部署](images/dtx-chat02.png)

3. 创建成功,接下来可以通过部署的模型提供服务
=======
1. 微调模型部署
- 可以看到,列表中展示了刚微调实验跑出来的模型,点击右侧 **...** ,在弹出选项中选择 **部署**
![微调模型部署](images/dtx-chat01.png)
- 填写模型服务名称、命名空间、算力配额、资源配置后点击 **确定** (注:推荐 CPU 配额和内存配置请求值为 **16** Core, **32** Gi)。
![微调模型部署](images/dtx-chat02.png)
- 创建成功,即可等待模型微调部署成功
>>>>>>> 64e59b1 (update fine-tuning 2.0)
## 模型服务对话

Expand Down
2 changes: 1 addition & 1 deletion docs/zh/docs/dtx/fine-tuning-lab.md
Original file line number Diff line number Diff line change
Expand Up @@ -27,7 +27,7 @@
- CPU配额:通常需要使用多核CPU来加速训练和推理过程。具体的 CPU 配额需要根据任务的需求和可用的硬件资源来确定。
- 内存配置:根据模型的大小和数据集的大小来确定内存需求,并根据需要调整内存配置。

推荐CPU配额和内存配置请求值为 **2** Core,限制值为 **4** Core。
推荐CPU配额和内存配置请求值为 **16** Core,限制值为 **32** Core。

!!!note

Expand Down

0 comments on commit 81e19af

Please sign in to comment.