BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
Paper
โข
1810.04805
โข
Published
โข
25
ํญ๊ณต ์์ ๋๋ฉ์ธ์ ํนํ๋ ํ๊ตญ์ด BERT ๋ชจ๋ธ
๐ค Huggingface Hub์ ์ ๋ก๋ ๋ ๋ชจ๋ธ์ ๋ฐ๋ก ์ฌ์ฉํ ์ ์์ต๋๋ค :)
# Load model directly
from transformers import AutoTokenizer, AutoModelForPreTraining
tokenizer = AutoTokenizer.from_pretrained("oneonlee/KoAirBERT")
model = AutoModelForPreTraining.from_pretrained("oneonlee/KoAirBERT")
์ด ์ฝ๋๋ฅผ ์ฐ๊ตฌ์ฉ์ผ๋ก ์ฌ์ฉํ๋ ๊ฒฝ์ฐ ์๋์ ๊ฐ์ด ์ธ์ฉํด์ฃผ์ธ์.
@software{lee_2023_10158254,
author = {Lee, DongGeon},
title = {KoAirBERT: Korean BERT Model Specialized for Aviation Safety Domain},
month = nov,
year = 2023,
publisher = {Zenodo},
version = {v1.0.0},
doi = {10.5281/zenodo.10158254},
url = {https://doi.org/10.5281/zenodo.10158254}
}
KoAirBERT๋ AGPL-3.0 ๋ผ์ด์ ์ค ํ์ ๊ณต๊ฐ๋์ด ์์ต๋๋ค. ๋ชจ๋ธ ๋ฐ ์ฝ๋๋ฅผ ์ฌ์ฉํ ๊ฒฝ์ฐ ๋ผ์ด์ ์ค ๋ด์ฉ์ ์ค์ํด์ฃผ์ธ์. ๋ผ์ด์ ์ค ์ ๋ฌธ์ LICENSE ํ์ผ์์ ํ์ธํ์ค ์ ์์ต๋๋ค.