ysakuramoto
commited on
Commit
•
837edc5
1
Parent(s):
2d8cd28
Update README.md
Browse files
README.md
CHANGED
@@ -37,7 +37,7 @@ model = MobileBertForSequenceClassification.from_pretrained("ysakuramoto/mobileb
|
|
37 |
- BERTモデルに、'cl-tohoku/bert-base-japanese-whole-word-masking'を利用。
|
38 |
- 推論データ n=1,474。精度はAccuracy。
|
39 |
- エポック数=10, lr=1e-4
|
40 |
-
-
|
41 |
- Google Colabにて、学習にGPU、推論にCPUを利用した。推論はバッチ処理でなく1件ずつ処理。
|
42 |
|
43 |
- 固有表現抽出(BertForTokenClassification)
|
@@ -51,7 +51,7 @@ model = MobileBertForSequenceClassification.from_pretrained("ysakuramoto/mobileb
|
|
51 |
- BERTモデルに、'cl-tohoku/bert-base-japanese-whole-word-masking'を利用。
|
52 |
- 推論データ n=2,140。精度は完全一致のAccuracy。
|
53 |
- エポック数=10, lr=1e-4
|
54 |
-
-
|
55 |
- Google Colabにて、学習にGPU、推論にCPUを利用した。推論はバッチ処理でなく1件ずつ処理。
|
56 |
|
57 |
# モデルの説明
|
|
|
37 |
- BERTモデルに、'cl-tohoku/bert-base-japanese-whole-word-masking'を利用。
|
38 |
- 推論データ n=1,474。精度はAccuracy。
|
39 |
- エポック数=10, lr=1e-4
|
40 |
+
- 推論時の高速化として、枝刈り・量子化・jitコンパイルを実施。
|
41 |
- Google Colabにて、学習にGPU、推論にCPUを利用した。推論はバッチ処理でなく1件ずつ処理。
|
42 |
|
43 |
- 固有表現抽出(BertForTokenClassification)
|
|
|
51 |
- BERTモデルに、'cl-tohoku/bert-base-japanese-whole-word-masking'を利用。
|
52 |
- 推論データ n=2,140。精度は完全一致のAccuracy。
|
53 |
- エポック数=10, lr=1e-4
|
54 |
+
- 推論時の高速化として、枝刈り・量子化・jitコンパイルを実施。
|
55 |
- Google Colabにて、学習にGPU、推論にCPUを利用した。推論はバッチ処理でなく1件ずつ処理。
|
56 |
|
57 |
# モデルの説明
|