ysakuramoto commited on
Commit
837edc5
1 Parent(s): 2d8cd28

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +2 -2
README.md CHANGED
@@ -37,7 +37,7 @@ model = MobileBertForSequenceClassification.from_pretrained("ysakuramoto/mobileb
37
  - BERTモデルに、'cl-tohoku/bert-base-japanese-whole-word-masking'を利用。
38
  - 推論データ n=1,474。精度はAccuracy。
39
  - エポック数=10, lr=1e-4
40
- - 高速化として、枝刈り・量子化・jitコンパイルを実施。
41
  - Google Colabにて、学習にGPU、推論にCPUを利用した。推論はバッチ処理でなく1件ずつ処理。
42
 
43
  - 固有表現抽出(BertForTokenClassification)
@@ -51,7 +51,7 @@ model = MobileBertForSequenceClassification.from_pretrained("ysakuramoto/mobileb
51
  - BERTモデルに、'cl-tohoku/bert-base-japanese-whole-word-masking'を利用。
52
  - 推論データ n=2,140。精度は完全一致のAccuracy。
53
  - エポック数=10, lr=1e-4
54
- - 高速化として、枝刈り・量子化・jitコンパイルを実施。
55
  - Google Colabにて、学習にGPU、推論にCPUを利用した。推論はバッチ処理でなく1件ずつ処理。
56
 
57
  # モデルの説明
 
37
  - BERTモデルに、'cl-tohoku/bert-base-japanese-whole-word-masking'を利用。
38
  - 推論データ n=1,474。精度はAccuracy。
39
  - エポック数=10, lr=1e-4
40
+ - 推論時の高速化として、枝刈り・量子化・jitコンパイルを実施。
41
  - Google Colabにて、学習にGPU、推論にCPUを利用した。推論はバッチ処理でなく1件ずつ処理。
42
 
43
  - 固有表現抽出(BertForTokenClassification)
 
51
  - BERTモデルに、'cl-tohoku/bert-base-japanese-whole-word-masking'を利用。
52
  - 推論データ n=2,140。精度は完全一致のAccuracy。
53
  - エポック数=10, lr=1e-4
54
+ - 推論時の高速化として、枝刈り・量子化・jitコンパイルを実施。
55
  - Google Colabにて、学習にGPU、推論にCPUを利用した。推論はバッチ処理でなく1件ずつ処理。
56
 
57
  # モデルの説明