File size: 1,746 Bytes
e0b4b22
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
a7bbca4
e0b4b22
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
---
license: apache-2.0

---

## 模型介绍

<img src="https://cdn-uploads.huggingface.co/production/uploads/65a22b0601ed2b702d695ead/xpyEylqMw7Flpd0TdkrtR.jpeg
" alt="image-20240729083143125" style="zoom:30%;" />
这个版本是基于llama3.1的405B模型,经过特殊处理的中文sft版。与原始的instruct版类似,模型对中文内容和emoji表情的处理更加亲和,确保问答性能与用户体验的优化。

特点: 优化了对中文和emoji表情的处理能力,不影响原有instruct版模型的能力。实测表明,这个中文sft版在问答性能上超越了市面上所有其他llama3.1的中文微调版。

<img src="https://cdn-uploads.huggingface.co/production/uploads/65a22b0601ed2b702d695ead/wEjDT_h8PjFB4SfkNVB5j.png
" alt="image-20240729083143125" style="zoom:75%;" />

## 训练细节

-  Lora rank128, alpha256

## 模型下载

通过Git LFS克隆模型:

```shell
git lfs install
git clone https://huggingface.co/opencsg/CSG-Wukong-Chinese-Llama3.1-405B
```

## Lora参数合并指南

实现lora参数的合并,需要使用以下python代码:

```python
from transformers import AutoModelForCausalLM
from peft import PeftModel

base_model = AutoModelForCausalLM.from_pretrained("meta-llama/Meta-Llama-3.1-405B-Instruct")
peft_model_id = "OpenCSG/CSG-Wukong-Chinese-Llama3.1-405B"
model = PeftModel.from_pretrained(base_model, peft_model_id)
model.merge_and_unload()
```

## 推理指南

为了优化模型的加载与运行效率,建议使用bnb的4bit量化方式进行模型的加载与预测。

- 硬件8卡H100

<img src="https://cdn-uploads.huggingface.co/production/uploads/65a22b0601ed2b702d695ead/gc5IbELDAvIPu-ONWGNpa.png
" alt="image-20240729083143125" style="zoom:75%;" />