File size: 1,203 Bytes
08041cd
 
 
78a5d02
 
c0a0dec
78a5d02
 
 
 
 
 
 
216e2f5
78a5d02
 
 
216e2f5
78a5d02
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
---
license: agpl-3.0
---
# 使用方法
先git clone该repo,然后从下方的百度网盘地址下载权重并放入clone的文件夹中。

链接: https://pan.baidu.com/s/1NBBoXI7SFRwrv5-UT9Ayow?pwd=g89m 提取码: g89m 

由于LLaMA对其衍生模型的限制,发布的权重只能包含差异部分,使用前请先按照以下流程转换权重。
## Step1:将原始LLaMA权重转换为huggingface版本。
首先下载LLaMA原始权重,然后使用[权重转换脚本](https://github.com/huggingface/transformers/blob/main/src/transformers/models/llama/convert_llama_weights_to_hf.py)转换权重。
```python
python src/transformers/models/llama/convert_llama_weights_to_hf.py \
    --input_dir /path/to/downloaded/llama/weights --model_size 13B --output_dir /output/LLaMA_hf/13B
```
## Step2:使用[解密脚本](https://github.com/icalk-nlp/EduChat/blob/main/decrypt.py)将增量权重加到原始LLaMA权重上。
```python
python ./decrypt.py --base /path/to/LLAMA_hf/13B --target ./educhat-sft-002-13b-decrypt --delta /path/to/educhat-sft-002-13b 
```
# 使用示例
转换权重后,使用示例请参考:https://github.com/icalk-nlp/EduChat#%E4%BD%BF%E7%94%A8%E7%A4%BA%E4%BE%8B