Furyton commited on
Commit
da2962d
1 Parent(s): d8841ba

fix model name

Browse files
Files changed (1) hide show
  1. README.md +3 -3
README.md CHANGED
@@ -249,12 +249,12 @@ pip install protobuf==3.20.0 transformers==4.27.1 icetk cpm_kernels
249
 
250
  夫子•明察基于 ChatGLM 进行司法垂直领域增量训练,所以其使用方法与 ChatGLM 相同。
251
 
252
- 将权重下载完毕后,可以通过如下代码调用夫子•明察模型来生成对话:( "/path/to/fuzi.mingcha-v1.0" 改为权重的放置路径)
253
 
254
  ```ipython
255
  >>> from transformers import AutoTokenizer, AutoModel
256
- >>> tokenizer = AutoTokenizer.from_pretrained("/path/to/fuzi.mingcha-v1.0", trust_remote_code=True)
257
- >>> model = AutoModel.from_pretrained("/path/to/fuzi.mingcha-v1.0", trust_remote_code=True).half().cuda()
258
  >>> response, history = model.chat(tokenizer, "你好", history=[])
259
  >>> print(response)
260
  你好,有什么我可以帮您解答的问题吗?
 
249
 
250
  夫子•明察基于 ChatGLM 进行司法垂直领域增量训练,所以其使用方法与 ChatGLM 相同。
251
 
252
+ 可以通过如下代码调用夫子•明察模型来生成对话:(可以首先将参数下载至本地,后将 `SDUIRLab/fuzi-mingcha-v1_0` 改为权重的放置路径)
253
 
254
  ```ipython
255
  >>> from transformers import AutoTokenizer, AutoModel
256
+ >>> tokenizer = AutoTokenizer.from_pretrained("SDUIRLab/fuzi-mingcha-v1_0", trust_remote_code=True)
257
+ >>> model = AutoModel.from_pretrained("SDUIRLab/fuzi-mingcha-v1_0", trust_remote_code=True).half().cuda()
258
  >>> response, history = model.chat(tokenizer, "你好", history=[])
259
  >>> print(response)
260
  你好,有什么我可以帮您解答的问题吗?