File size: 3,312 Bytes
073b70f
 
 
 
 
 
 
 
39bdf8e
 
ba0c8db
39bdf8e
ba0c8db
39bdf8e
ba0c8db
39bdf8e
 
606d8e2
39bdf8e
 
606d8e2
39bdf8e
073b70f
 
 
 
 
 
 
 
 
 
 
39bdf8e
 
 
 
 
 
 
606d8e2
39bdf8e
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
073b70f
 
 
 
 
 
 
 
 
 
 
 
 
 
 
986955f
 
 
 
 
073b70f
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
---
license: cc-by-4.0
base_model: paust/pko-t5-large
tags:
- generated_from_trainer
model-index:
- name: t5-brokarry-unknown
  results: []

widget:
- text: "브로캐리에 관련된 이용자의 대화인데 분류 및 인식 해줘! :\n내일 심야 화물 건이 있을까?\n네, 내일 심야 화물건은 6가지가 있습니다.\n그중에 상차지가 여수인 곳이 있어?"
  example_title: "화물추천"
- text: "브로캐리에 관련된 이용자의 대화인데 분류 및 인식 해줘! :\n용인에서 출발하는 화물 찾아줘.\n언제가 좋으세요?\n내일 새벽\n브로캐리AI가 최적의 화물을 찾고 있어요.\n그런데 거기 날씨는 어때?"
  example_title: "날씨예보"
- text: "브로캐리에 관련된 이용자의 대화인데 분류 및 인식 해줘! :\n오늘 날씨 어때?\n오늘은 맑아서 기분 좋아 보여. 25도 정도일거야.\n홍대 근처에서 친구만날 건데, 거기 근처에 전기차충전소 알려줘."
  example_title: "장소안내"
- text: "브로캐리에 관련된 이용자의 대화인데 분류 및 인식 해줘! :경부고속도로 상황 알려줘"
  example_title: "일반대화"
- text: "브로캐리에 관련된 이용자의 대화인데 분류 및 인식 해줘! :하차 담당자에게 문의해줘"
  example_title: "전화연결"
- text: "브로캐리에 관련된 이용자의 대화인데 분류 및 인식 해줘! :브로브로브로캐리부릉부릉릉"
  example_title: "Unknown"
---

<!-- This model card has been generated automatically according to the information the Trainer had access to. You
should probably proofread and complete it, then remove this comment. -->

# t5-brokarry-unknown

This model is a fine-tuned version of [paust/pko-t5-large](https://huggingface.co/paust/pko-t5-large) on the None dataset.

## Model description

|의도	 |개체 |
|:------:|:-----------|
| 일반대화 | |
| 전화연결 |대상|
| 장소안내 |장소, 대상|
| 날씨예보 |언제, 시간,장소, 대상, 조건|
| 화물추천 |언제, 시간, 상차, 하차, 조건|
| Unknown | |
*대상 : 상차지/하차지

## How to use

```python
import requests
 
API_URL = "https://api-inference.huggingface.co/models/yeye776/t5-brokarry-unknown"
headers = {"Authorization": "Bearer hf_key"}

def query(payload):
    response = requests.post(API_URL, headers=headers, json=payload)
    return response.json()

prompt = "브로캐리에 관련된 이용자의 대화인데 분류 및 인식 해줘! :"
input = "내일 심야 상차지가 분당인 화물 추천해줘"

output = query({
    "inputs": prompt+input,
    "options":{"wait_for_model":True}
})
```

### Training hyperparameters

The following hyperparameters were used during training:
- learning_rate: 0.0007
- train_batch_size: 4
- eval_batch_size: 4
- seed: 42
- gradient_accumulation_steps: 8
- total_train_batch_size: 32
- optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
- lr_scheduler_type: cosine
- lr_scheduler_warmup_ratio: 0.06
- num_epochs: 10

### Training output
- 전체 훈련 스텝 수 (Global Step): 130
- 훈련 손실 (Training Loss): 0.442529062124399
- 훈련 시간 (Train Runtime): 836.443 초(약 13분)
  
### Framework versions

- Transformers 4.35.0
- Pytorch 2.1.0+cu118
- Datasets 2.14.6
- Tokenizers 0.14.1