hayashi-jurabi
commited on
Commit
•
cbc0396
1
Parent(s):
c65012e
Update README.md
Browse files
README.md
CHANGED
@@ -3,6 +3,20 @@ license: cc-by-sa-3.0
|
|
3 |
---
|
4 |
# BERTによる日本語固有表現抽出のモデル
|
5 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
6 |
## 事前学習モデル
|
7 |
東北大学乾研究室が公開している日本語BERTモデル([cl-tohoku/bert-base-japanese-v2](https://huggingface.co/cl-tohoku/bert-base-japanese-v2))
|
8 |
|
|
|
3 |
---
|
4 |
# BERTによる日本語固有表現抽出のモデル
|
5 |
|
6 |
+
## 使用方法
|
7 |
+
必要なライブラリ(transformers、unidic_lite、fugashi)をpipなどでインストールして、下記のコードを実行するだけです。
|
8 |
+
|
9 |
+
```python
|
10 |
+
from transformers import BertJapaneseTokenizer, BertForTokenClassification
|
11 |
+
from transformers import pipeline
|
12 |
+
|
13 |
+
model = BertForTokenClassification.from_pretrained("jurabi/bert-ner-japanese")
|
14 |
+
tokenizer = BertJapaneseTokenizer.from_pretrained("jurabi/bert-ner-japanese")
|
15 |
+
|
16 |
+
ner_pipeline = pipeline('ner', model=model, tokenizer=tokenizer)
|
17 |
+
ner_pipeline("ここに固有表現抽出をしたい文を書いて下さい。")
|
18 |
+
```
|
19 |
+
|
20 |
## 事前学習モデル
|
21 |
東北大学乾研究室が公開している日本語BERTモデル([cl-tohoku/bert-base-japanese-v2](https://huggingface.co/cl-tohoku/bert-base-japanese-v2))
|
22 |
|