File size: 3,119 Bytes
073b70f 39bdf8e 6c628cd 39bdf8e 606d8e2 39bdf8e 606d8e2 39bdf8e 073b70f 39bdf8e 606d8e2 39bdf8e 073b70f |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 |
---
license: cc-by-4.0
base_model: paust/pko-t5-large
tags:
- generated_from_trainer
model-index:
- name: t5-brokarry-unknown
results: []
widget:
- text: "브로캐리에 관련된 이용자의 대화인데 분류 및 인식 해줘! :내일 심야 화물 건이 있을까?\n네, 내일 심야 화물건은 6가지가 있습니다.\n그중에 상차지가 여수인 곳이 있어?"
example_title: "화물추천"
- text: "브로캐리에 관련된 이용자의 대화인데 분류 및 인식 해줘! :용인에서 출발하는 화물 찾아줘.언제가 좋으세요?내일 새벽브로캐리AI가 최적의 화물을 찾고 있어요.그런데 거기 날씨는 어때?"
example_title: "날씨예보"
- text: "브로캐리에 관련된 이용자의 대화인데 분류 및 인식 해줘! :오늘 날씨 어때?오늘은 맑아서 기분 좋아 보여. 25도 정도일거야.홍대 근처에서 친구만날 건데, 거기 근처에 전기차충전소 알려줘."
example_title: "장소안내"
- text: "브로캐리에 관련된 이용자의 대화인데 분류 및 인식 해줘! :경부고속도로 상황 알려줘"
example_title: "일반대화"
- text: "브로캐리에 관련된 이용자의 대화인데 분류 및 인식 해줘! :하차 담당자에게 문의해줘"
example_title: "전화연결"
- text: "브로캐리에 관련된 이용자의 대화인데 분류 및 인식 해줘! :브로브로브로캐리부릉부릉릉"
example_title: "Unknown"
---
<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->
# t5-brokarry-unknown
This model is a fine-tuned version of [paust/pko-t5-large](https://huggingface.co/paust/pko-t5-large) on the None dataset.
## Model description
|의도 |개체 |
|:------:|:-----------|
| 일반대화 | |
| 전화연결 |대상|
| 장소안내 |장소, 대상|
| 날씨예보 |언제, 시간,장소, 대상, 조건|
| 화물추천 |언제, 시간, 상차, 하차, 조건|
| Unknown | |
*대상 : 상차지/하차지
## How to use
```python
import requests
API_URL = "https://api-inference.huggingface.co/models/yeye776/t5-brokarry-unknown"
headers = {"Authorization": "Bearer hf_key"}
def query(payload):
response = requests.post(API_URL, headers=headers, json=payload)
return response.json()
prompt = "브로캐리에 관련된 이용자의 대화인데 분류 및 인식 해줘! :"
input = "내일 심야 상차지가 분당인 화물 추천해줘"
output = query({
"inputs": prompt+input,
"options":{"wait_for_model":True}
})
```
### Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0007
- train_batch_size: 4
- eval_batch_size: 4
- seed: 42
- gradient_accumulation_steps: 8
- total_train_batch_size: 32
- optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
- lr_scheduler_type: cosine
- lr_scheduler_warmup_ratio: 0.06
- num_epochs: 10
### Framework versions
- Transformers 4.35.0
- Pytorch 2.1.0+cu118
- Datasets 2.14.6
- Tokenizers 0.14.1
|