ysakuramoto
commited on
Commit
•
a1f3fdb
1
Parent(s):
95bc47d
Update README.md
Browse files
README.md
CHANGED
@@ -35,10 +35,10 @@ model = MobileBertForSequenceClassification.from_pretrained("ysakuramoto/mobileb
|
|
35 |
|精度|86.4%|85.5%|86.4%|
|
36 |
- 条件
|
37 |
- ライブドアニュースコーパスのタイトルとカテゴリで学習・推論。
|
38 |
-
- 比較対象のBERT
|
39 |
- 推論データ n=1,474。精度はAccuracy
|
40 |
- 学習パラメータ: エポック数=10, lr=1e-4
|
41 |
-
-
|
42 |
- Google Colabにて、学習にGPU、推論にCPUを利用。バッチ処理でなく1件ずつ推論。
|
43 |
- それぞれ、学習~推論を3回実施した平均値。
|
44 |
|
@@ -50,10 +50,10 @@ model = MobileBertForSequenceClassification.from_pretrained("ysakuramoto/mobileb
|
|
50 |
|精度|86.4%|82.5%|83.3%|
|
51 |
- 条件
|
52 |
- ストックマーク社さんのwikipediaデータセットで学習・推論。(https://github.com/stockmarkteam/ner-wikipedia-dataset)
|
53 |
-
- 比較対象のBERT
|
54 |
- 推論データ n=2,140。精度は完全一致のf-measure
|
55 |
- 学習パラメータ: エポック数=10, lr=1e-4
|
56 |
-
-
|
57 |
- Google Colabにて、学習にGPU、推論にCPUを利用。バッチ処理でなく1件ずつ推論。
|
58 |
- それぞれ、学習~推論を3回実施した平均値。
|
59 |
|
|
|
35 |
|精度|86.4%|85.5%|86.4%|
|
36 |
- 条件
|
37 |
- ライブドアニュースコーパスのタイトルとカテゴリで学習・推論。
|
38 |
+
- 比較対象のBERTモデルは東北大学さんの"cl-tohoku/bert-base-japanese-whole-word-masking"。
|
39 |
- 推論データ n=1,474。精度はAccuracy
|
40 |
- 学習パラメータ: エポック数=10, lr=1e-4
|
41 |
+
- 推論時の高速化として、枝刈り(-20%)・量子化・jitコンパイルを実施。
|
42 |
- Google Colabにて、学習にGPU、推論にCPUを利用。バッチ処理でなく1件ずつ推論。
|
43 |
- それぞれ、学習~推論を3回実施した平均値。
|
44 |
|
|
|
50 |
|精度|86.4%|82.5%|83.3%|
|
51 |
- 条件
|
52 |
- ストックマーク社さんのwikipediaデータセットで学習・推論。(https://github.com/stockmarkteam/ner-wikipedia-dataset)
|
53 |
+
- 比較対象のBERTモデルは東北大学さんの"cl-tohoku/bert-base-japanese-whole-word-masking"。
|
54 |
- 推論データ n=2,140。精度は完全一致のf-measure
|
55 |
- 学習パラメータ: エポック数=10, lr=1e-4
|
56 |
+
- 推論時の高速化として、枝刈り(-20%)・量子化・jitコンパイルを実施。
|
57 |
- Google Colabにて、学習にGPU、推論にCPUを利用。バッチ処理でなく1件ずつ推論。
|
58 |
- それぞれ、学習~推論を3回実施した平均値。
|
59 |
|