jubgjf commited on
Commit
58d7995
1 Parent(s): 491fd3e

Update README.md: Fix sampling top_p

Browse files
Files changed (1) hide show
  1. README.md +1 -1
README.md CHANGED
@@ -103,7 +103,7 @@ print(tokenizer.decode(outputs[0], skip_special_tokens=True))
103
 
104
  ### 模型生成效果
105
 
106
- 下表为各个扩词表模型的生成效果。由于部分模型的预训练语料未使用`eos_token`进行分隔,我们采用了`max_tokens = 100`对生成文本进行截断。我们的采样参数为`temperature = 0.8, top_p = 0.95`。
107
 
108
  ![](./img/case.png)
109
 
 
103
 
104
  ### 模型生成效果
105
 
106
+ 下表为各个扩词表模型的生成效果。由于部分模型的预训练语料未使用`eos_token`进行分隔,我们采用了`max_tokens = 100`对生成文本进行截断。我们的采样参数为`temperature = 0.8, top_p = 0.9`。
107
 
108
  ![](./img/case.png)
109