Add new SentenceTransformer model.
Browse files- 1_Pooling/config.json +10 -0
- README.md +384 -0
- added_tokens.json +3 -0
- bpe.codes +0 -0
- config.json +28 -0
- config_sentence_transformers.json +10 -0
- model.safetensors +3 -0
- modules.json +14 -0
- sentence_bert_config.json +4 -0
- special_tokens_map.json +51 -0
- tokenizer_config.json +54 -0
- vocab.txt +0 -0
1_Pooling/config.json
ADDED
@@ -0,0 +1,10 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"word_embedding_dimension": 768,
|
3 |
+
"pooling_mode_cls_token": false,
|
4 |
+
"pooling_mode_mean_tokens": true,
|
5 |
+
"pooling_mode_max_tokens": false,
|
6 |
+
"pooling_mode_mean_sqrt_len_tokens": false,
|
7 |
+
"pooling_mode_weightedmean_tokens": false,
|
8 |
+
"pooling_mode_lasttoken": false,
|
9 |
+
"include_prompt": true
|
10 |
+
}
|
README.md
ADDED
@@ -0,0 +1,384 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
---
|
2 |
+
language: []
|
3 |
+
library_name: sentence-transformers
|
4 |
+
tags:
|
5 |
+
- sentence-transformers
|
6 |
+
- sentence-similarity
|
7 |
+
- feature-extraction
|
8 |
+
- dataset_size:10K<n<100K
|
9 |
+
- loss:MultipleNegativesRankingLoss
|
10 |
+
base_model: vinai/phobert-base-v2
|
11 |
+
widget:
|
12 |
+
- source_sentence: sau khi cắt amiđan cháu nên lưu ý gì thưa cháu vừa cắt amiđan
|
13 |
+
cháu có thể ăn kem không vn
|
14 |
+
sentences:
|
15 |
+
- dán thuốc gì làm mụn mắt cá chân tự rụng em có đi mổ mắt cá chân nhưng vì thấy
|
16 |
+
vết thương còn hở nên không đi cắt chỉ để đến tận 1 tháng nghe bà chị nói bấy
|
17 |
+
giờ cắt chỉ sẽ đau lắm xin tư vấn giúp em có đúng không
|
18 |
+
- nguy cơ tái nhiễm hp ở người đã từng mắc cao không với người đã điều trị khỏi
|
19 |
+
hp rồi nguy cơ tái nhiễm có cao hay không ạ nếu nghi ngờ tái nhiễm thì nên kiểm
|
20 |
+
tra bằng phương pháp nào
|
21 |
+
- chỉ số creatinin là 112 5 liệu em có mắc bệnh suy thận chỉ số creatinin 112 5
|
22 |
+
pro trong nước tiểu 100 thường xuyên đi tiểu ban đêm đi tiểu 1 2 lần vậy cho em
|
23 |
+
hỏi đây có phải là bệnh suy thận và là suy thận giai đoạn 1
|
24 |
+
- source_sentence: anh em cần phải được đi khám để xác định vấn đề của và có biện
|
25 |
+
pháp điều trị thích hợp
|
26 |
+
sentences:
|
27 |
+
- đi cà nhắc sau phẫu thuật đứt dây chằng gối có phải di chứng anh em trước đây
|
28 |
+
có chơi đánh cầu lông do bất cẩn nên bị đứt dây chằng gối sau khi đi phẫu thuật
|
29 |
+
thì có thể đi bình thường nhưng d vn
|
30 |
+
- những thuốc tim mạch cần có trong tủ thuốc gia đình cho tôi hỏi người cao tuổi
|
31 |
+
có nên chuẩn bị một số thuốc tim mạch tại nhà không đó là những thuốc gì mong
|
32 |
+
nhận được sự tư vấn
|
33 |
+
- 'thuốc điều trị mề đay dị ứng có gây mất sữa mẹ thuốc chlorpheniramin có gây mất
|
34 |
+
sữa không ạ vì em bị nổi mề đay toàn thân ngứa quá không chịu nổi nên đi xét nghiệm
|
35 |
+
ạ em '
|
36 |
+
- source_sentence: có nên cho trẻ nằm máy lạnh khi bị sốt trẻ bị sốt nếu nằm quạt
|
37 |
+
hay máy lạnh thì cần lưu ý gì ạ
|
38 |
+
sentences:
|
39 |
+
- 'sau 5 tiếng uống thuốc bé vẫn không hạ sốt cần làm gì thưa nếu cho bé uống thuốc
|
40 |
+
sau 5 tiếng mà không hạ sốt thì cần làm gì ạ mong tư vấn sớm giúp em đang rất
|
41 |
+
lo lắng cho con ạ em '
|
42 |
+
- ' ơi mổ nội soi u xơ tử cung đã 1 tuần mà mẹ em vẫn đi tiểu ra máu mẹ em đã mổ
|
43 |
+
nội soi u xơ tử cung sau 1 tuần đi tiểu vẫn ra máu như vậy có nguy hiểm gì không
|
44 |
+
trần lai – bình dương'
|
45 |
+
- 'kết quả chụp x quang của bạn cho thấy buồng tử cung bình thường hai tai vòi thông
|
46 |
+
tai vòi phải thông chậm hơn bên trái bạn cứ tái khám chuyên khoa hiếm muộn để
|
47 |
+
được hỗ trợ '
|
48 |
+
- source_sentence: ung thư đại tràng t4nomo nghĩa là gì thưa bố cháu đang uống thuốc
|
49 |
+
điều trị ung thư đ
|
50 |
+
sentences:
|
51 |
+
- giảm phù cho bệnh nhân ung thư như thế nào ơi làm sao giảm phù cho bố em ạ bố
|
52 |
+
em bị ung thư giai đoạn cuối bị phù to ở chân bụng chướng
|
53 |
+
- biểu hiện trên cần loại trừ hẹp bao quy đầu hoặc nhiễm trùng tiểu ngoài ra cũng
|
54 |
+
cần loại trừ chứng bàng quang thần kinh bây giờ em nên đưa bé đến bệnh viện khám
|
55 |
+
và điều trị
|
56 |
+
- 'nước rửa mũi chảy vào tai gây đau có bị sao không ơi lúc em rửa mũi thì nước
|
57 |
+
có chảy lên tai sau đó bị ù và đau tai cho em hỏi nếu như vậy thì có bị gì không
|
58 |
+
ạ em '
|
59 |
+
- source_sentence: xử lý khi bị sứa cắn như thế nào nếu bị sứa cắn cần xử lý như thế
|
60 |
+
nào bôi thuốc gì thưa
|
61 |
+
sentences:
|
62 |
+
- trường hợp của em là bỏng độ 1 ngày thứ 4 hết đỏ hết rát nhưng rất ngứa là diễn
|
63 |
+
tiến tốt của bệnh có thể em sẽ khỏi trong vài ngày tới nếu tình trạng ngứa gây
|
64 |
+
khó chịu em có thể dùng thêm thuốc kháng histamin để chống ngứa
|
65 |
+
- 'về nơi điều trị chị nên đưa cháu đến các bệnh viện có chuyên khoa thần kinh tốt
|
66 |
+
nhất là thần kinh nhi ở tphcm hiện có bệnh viện nhi đồng 1 và nhi đồng 2 có chuyên
|
67 |
+
khoa này '
|
68 |
+
- thai hơn 6 tuần túi ối 23mm có nhỏ không cho em hỏi em đi siêu âm thai thì thai
|
69 |
+
được 6 tuần 2 ngày đường kính túi ối là 23mm như vậy có nhỏ không ạ tim thai 148
|
70 |
+
lần phút có chậm không ạ
|
71 |
+
pipeline_tag: sentence-similarity
|
72 |
+
---
|
73 |
+
|
74 |
+
# SentenceTransformer based on vinai/phobert-base-v2
|
75 |
+
|
76 |
+
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [vinai/phobert-base-v2](https://huggingface.co/vinai/phobert-base-v2). It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
|
77 |
+
|
78 |
+
## Model Details
|
79 |
+
|
80 |
+
### Model Description
|
81 |
+
- **Model Type:** Sentence Transformer
|
82 |
+
- **Base model:** [vinai/phobert-base-v2](https://huggingface.co/vinai/phobert-base-v2) <!-- at revision 2b51e367d92093c9688112098510e6a58bab67cd -->
|
83 |
+
- **Maximum Sequence Length:** 256 tokens
|
84 |
+
- **Output Dimensionality:** 768 tokens
|
85 |
+
- **Similarity Function:** Cosine Similarity
|
86 |
+
<!-- - **Training Dataset:** Unknown -->
|
87 |
+
<!-- - **Language:** Unknown -->
|
88 |
+
<!-- - **License:** Unknown -->
|
89 |
+
|
90 |
+
### Model Sources
|
91 |
+
|
92 |
+
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
|
93 |
+
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
|
94 |
+
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
|
95 |
+
|
96 |
+
### Full Model Architecture
|
97 |
+
|
98 |
+
```
|
99 |
+
SentenceTransformer(
|
100 |
+
(0): Transformer({'max_seq_length': 256, 'do_lower_case': False}) with Transformer model: RobertaModel
|
101 |
+
(1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
|
102 |
+
)
|
103 |
+
```
|
104 |
+
|
105 |
+
## Usage
|
106 |
+
|
107 |
+
### Direct Usage (Sentence Transformers)
|
108 |
+
|
109 |
+
First install the Sentence Transformers library:
|
110 |
+
|
111 |
+
```bash
|
112 |
+
pip install -U sentence-transformers
|
113 |
+
```
|
114 |
+
|
115 |
+
Then you can load this model and run inference.
|
116 |
+
```python
|
117 |
+
from sentence_transformers import SentenceTransformer
|
118 |
+
|
119 |
+
# Download from the 🤗 Hub
|
120 |
+
model = SentenceTransformer("sentence_transformers_model_id")
|
121 |
+
# Run inference
|
122 |
+
sentences = [
|
123 |
+
'xử lý khi bị sứa cắn như thế nào nếu bị sứa cắn cần xử lý như thế nào bôi thuốc gì thưa',
|
124 |
+
'trường hợp của em là bỏng độ 1 ngày thứ 4 hết đỏ hết rát nhưng rất ngứa là diễn tiến tốt của bệnh có thể em sẽ khỏi trong vài ngày tới nếu tình trạng ngứa gây khó chịu em có thể dùng thêm thuốc kháng histamin để chống ngứa',
|
125 |
+
'về nơi điều trị chị nên đưa cháu đến các bệnh viện có chuyên khoa thần kinh tốt nhất là thần kinh nhi ở tphcm hiện có bệnh viện nhi đồng 1 và nhi đồng 2 có chuyên khoa này ',
|
126 |
+
]
|
127 |
+
embeddings = model.encode(sentences)
|
128 |
+
print(embeddings.shape)
|
129 |
+
# [3, 768]
|
130 |
+
|
131 |
+
# Get the similarity scores for the embeddings
|
132 |
+
similarities = model.similarity(embeddings, embeddings)
|
133 |
+
print(similarities.shape)
|
134 |
+
# [3, 3]
|
135 |
+
```
|
136 |
+
|
137 |
+
<!--
|
138 |
+
### Direct Usage (Transformers)
|
139 |
+
|
140 |
+
<details><summary>Click to see the direct usage in Transformers</summary>
|
141 |
+
|
142 |
+
</details>
|
143 |
+
-->
|
144 |
+
|
145 |
+
<!--
|
146 |
+
### Downstream Usage (Sentence Transformers)
|
147 |
+
|
148 |
+
You can finetune this model on your own dataset.
|
149 |
+
|
150 |
+
<details><summary>Click to expand</summary>
|
151 |
+
|
152 |
+
</details>
|
153 |
+
-->
|
154 |
+
|
155 |
+
<!--
|
156 |
+
### Out-of-Scope Use
|
157 |
+
|
158 |
+
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
|
159 |
+
-->
|
160 |
+
|
161 |
+
<!--
|
162 |
+
## Bias, Risks and Limitations
|
163 |
+
|
164 |
+
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
|
165 |
+
-->
|
166 |
+
|
167 |
+
<!--
|
168 |
+
### Recommendations
|
169 |
+
|
170 |
+
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
|
171 |
+
-->
|
172 |
+
|
173 |
+
## Training Details
|
174 |
+
|
175 |
+
### Training Dataset
|
176 |
+
|
177 |
+
#### Unnamed Dataset
|
178 |
+
|
179 |
+
|
180 |
+
* Size: 16,053 training samples
|
181 |
+
* Columns: <code>sentence_0</code> and <code>sentence_1</code>
|
182 |
+
* Approximate statistics based on the first 1000 samples:
|
183 |
+
| | sentence_0 | sentence_1 |
|
184 |
+
|:--------|:------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|
|
185 |
+
| type | string | string |
|
186 |
+
| details | <ul><li>min: 19 tokens</li><li>mean: 82.38 tokens</li><li>max: 256 tokens</li></ul> | <ul><li>min: 20 tokens</li><li>mean: 149.34 tokens</li><li>max: 256 tokens</li></ul> |
|
187 |
+
* Samples:
|
188 |
+
| sentence_0 | sentence_1 |
|
189 |
+
|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
|
190 |
+
| <code>bệnh trĩ chữa tận gốc được không chào bác sĩ em bị bệnh trĩ nội hay bị lòi ra ngày nào em bón không đi ngoài là cảm giác đau rất khó chịu xin hỏi bị trĩ có chữa được tận gốc không và bằng phương pháp nào nên tới bệnh viện nào trị hiệu quả ạ em chưa từng điều trị trĩ</code> | <code>bệnh trĩ là bệnh phổ biến hiện nay trĩ mức độ nhẹ thì thường gây khó khăn khi đại tiện do búi trĩ phồng lên cản trở đường thoát của phân nặng hơn thì gây chảy máu khi đi tiêu trĩ ngoại hay trĩ nội kèm nứt hậu môn thì thường kèm triệu chứng đau đối với búi trĩ lớn nếu bị tắc nghẹt búi trĩ sẽ gây đau nhức viêm nhiễm và hoại tử mức độ trĩ nội gồm 4 độ trĩ độ 1 thì đi tiêu không rặn ra búi trĩ độ 2 thì sau đi tiêu đứng dậy búi trĩ tự thụt vào độ 3 thì phải lấy tay đẩy búi trĩ vào và độ 4 thì không thể lấy tay đẩy búi trĩ vào trong điều trị trĩ đối với trĩ mức độ nhẹ 1 2 thì có thể dùng thuốc uống thuốc bôi thuốc đặt hậu môn để giảm nhỏ kích thước búi trĩ và giảm đau trĩ mức độ nặng hơn hay trĩ có biến chứng thì nên mổ cắt trĩ có nhiều phương pháp để phẫu thuật mổ trĩ phương pháp ít tốn kém là thắt búi trĩ qua nội soi trực tràng tốt hơn chích xơ búi trĩ cho đến phương pháp hiện đại hơn và cũng tốn kém nhiều hơn là phương pháp longo với thắt búi trĩ qua nội soi trực tràng thì chi phí thấp nhất khoảng vài trăm ngàn em có thể về liền sau khi thắt trĩ nhưng thường phải làm lại nhiều lần và khá đau trĩ độ 2 thì trị bằng phương pháp này tốt hơn trĩ độ 3 độ 4 phương pháp longo thì ít đau hơn làm 1 lần nhưng cần nhập viện khoảng 2 ngày và giá thành cao vài triệu đồng phương pháp cắt trĩ bằng máy đốt điện cao tần hoặc máy cắt siêu âm được sử dụng cho tất cả mọi loại trĩ trĩ hỗn hợp trĩ biến chứng huyết khối da thừa hậu môn nhưng khá đau và chăm sóc khó để điều trị bệnh trĩ em nên đăng ký khám tại chuyên khoa ngoại tiêu hóa là phù hợp bệnh trĩ là bệnh có thể điều trị được nhưng vẫn có khả năng tái phát nếu tình trạng táo bón vẫn tiếp tục tiếp diễn sau đó do đó điều quan trọng là em cần thay đổi lối sống của mình ăn nhiều rau xanh uống nhiều nước hạn chế thức ăn nhiều gia vị cay và chất kích thích như rượu bia cà phê không hút thuốc lá tăng cường vận động tránh ngồi lâu khi đi vệ sinh em nhé</code> |
|
191 |
+
| <code>chữa trị triệu chứng ù tai như thế nào tôi bị ù tai chói tai khoảng 5 năm nay nghe không rõ vậy bệnh của tôi có thể chữa như thế nào tối đến tiếng ù tai chói tai rõ hơn tôi cảm thấy rất mệt mỏi nhờ tư vấn giúp ạ</code> | <code>ù tai có nhiều nguyên nhân từ tổn thương tại cơ quan tai giữa tai trong do viêm nhiễm u chấn thương… cho tới các tổn thương dẫn truyền và vùng vỏ não thính giác… muốn tìm hiểu nguyên nhân cần biết rõ bệnh sử diễn tiến ù tai hoàn cảnh khởi phát và thăm khám cẩn thận phương pháp điều trị sẽ tuỳ thuộc vào nguyên nhân tiên lượng rất khác nhau trước tiên bạn nên khám chuyên khoa tai ở bệnh viện tai mũi họng để làm rõ chẩn đoán bạn nhé </code> |
|
192 |
+
| <code>có thể sinh con lần 3 sau 2 lần đẻ mổ phụ nữ hai lần đẻ mổ thì có thể sinh con lần thứ ba không</code> | <code>nếu lần mổ thứ 2 không căn dặn là không được có thai nữa thì bạn vẫn có thể sinh lần nữa nhưng chú ý là nên theo dõi ở bv sản khoa lớn có phòng mổ bởi vì lần 3 sẽ phải sinh mổ</code> |
|
193 |
+
* Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
|
194 |
+
```json
|
195 |
+
{
|
196 |
+
"scale": 20.0,
|
197 |
+
"similarity_fct": "cos_sim"
|
198 |
+
}
|
199 |
+
```
|
200 |
+
|
201 |
+
### Training Hyperparameters
|
202 |
+
#### Non-Default Hyperparameters
|
203 |
+
|
204 |
+
- `num_train_epochs`: 1
|
205 |
+
- `multi_dataset_batch_sampler`: round_robin
|
206 |
+
|
207 |
+
#### All Hyperparameters
|
208 |
+
<details><summary>Click to expand</summary>
|
209 |
+
|
210 |
+
- `overwrite_output_dir`: False
|
211 |
+
- `do_predict`: False
|
212 |
+
- `eval_strategy`: no
|
213 |
+
- `prediction_loss_only`: True
|
214 |
+
- `per_device_train_batch_size`: 8
|
215 |
+
- `per_device_eval_batch_size`: 8
|
216 |
+
- `per_gpu_train_batch_size`: None
|
217 |
+
- `per_gpu_eval_batch_size`: None
|
218 |
+
- `gradient_accumulation_steps`: 1
|
219 |
+
- `eval_accumulation_steps`: None
|
220 |
+
- `learning_rate`: 5e-05
|
221 |
+
- `weight_decay`: 0.0
|
222 |
+
- `adam_beta1`: 0.9
|
223 |
+
- `adam_beta2`: 0.999
|
224 |
+
- `adam_epsilon`: 1e-08
|
225 |
+
- `max_grad_norm`: 1
|
226 |
+
- `num_train_epochs`: 1
|
227 |
+
- `max_steps`: -1
|
228 |
+
- `lr_scheduler_type`: linear
|
229 |
+
- `lr_scheduler_kwargs`: {}
|
230 |
+
- `warmup_ratio`: 0.0
|
231 |
+
- `warmup_steps`: 0
|
232 |
+
- `log_level`: passive
|
233 |
+
- `log_level_replica`: warning
|
234 |
+
- `log_on_each_node`: True
|
235 |
+
- `logging_nan_inf_filter`: True
|
236 |
+
- `save_safetensors`: True
|
237 |
+
- `save_on_each_node`: False
|
238 |
+
- `save_only_model`: False
|
239 |
+
- `restore_callback_states_from_checkpoint`: False
|
240 |
+
- `no_cuda`: False
|
241 |
+
- `use_cpu`: False
|
242 |
+
- `use_mps_device`: False
|
243 |
+
- `seed`: 42
|
244 |
+
- `data_seed`: None
|
245 |
+
- `jit_mode_eval`: False
|
246 |
+
- `use_ipex`: False
|
247 |
+
- `bf16`: False
|
248 |
+
- `fp16`: False
|
249 |
+
- `fp16_opt_level`: O1
|
250 |
+
- `half_precision_backend`: auto
|
251 |
+
- `bf16_full_eval`: False
|
252 |
+
- `fp16_full_eval`: False
|
253 |
+
- `tf32`: None
|
254 |
+
- `local_rank`: 0
|
255 |
+
- `ddp_backend`: None
|
256 |
+
- `tpu_num_cores`: None
|
257 |
+
- `tpu_metrics_debug`: False
|
258 |
+
- `debug`: []
|
259 |
+
- `dataloader_drop_last`: False
|
260 |
+
- `dataloader_num_workers`: 0
|
261 |
+
- `dataloader_prefetch_factor`: None
|
262 |
+
- `past_index`: -1
|
263 |
+
- `disable_tqdm`: False
|
264 |
+
- `remove_unused_columns`: True
|
265 |
+
- `label_names`: None
|
266 |
+
- `load_best_model_at_end`: False
|
267 |
+
- `ignore_data_skip`: False
|
268 |
+
- `fsdp`: []
|
269 |
+
- `fsdp_min_num_params`: 0
|
270 |
+
- `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
|
271 |
+
- `fsdp_transformer_layer_cls_to_wrap`: None
|
272 |
+
- `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
|
273 |
+
- `deepspeed`: None
|
274 |
+
- `label_smoothing_factor`: 0.0
|
275 |
+
- `optim`: adamw_torch
|
276 |
+
- `optim_args`: None
|
277 |
+
- `adafactor`: False
|
278 |
+
- `group_by_length`: False
|
279 |
+
- `length_column_name`: length
|
280 |
+
- `ddp_find_unused_parameters`: None
|
281 |
+
- `ddp_bucket_cap_mb`: None
|
282 |
+
- `ddp_broadcast_buffers`: False
|
283 |
+
- `dataloader_pin_memory`: True
|
284 |
+
- `dataloader_persistent_workers`: False
|
285 |
+
- `skip_memory_metrics`: True
|
286 |
+
- `use_legacy_prediction_loop`: False
|
287 |
+
- `push_to_hub`: False
|
288 |
+
- `resume_from_checkpoint`: None
|
289 |
+
- `hub_model_id`: None
|
290 |
+
- `hub_strategy`: every_save
|
291 |
+
- `hub_private_repo`: False
|
292 |
+
- `hub_always_push`: False
|
293 |
+
- `gradient_checkpointing`: False
|
294 |
+
- `gradient_checkpointing_kwargs`: None
|
295 |
+
- `include_inputs_for_metrics`: False
|
296 |
+
- `eval_do_concat_batches`: True
|
297 |
+
- `fp16_backend`: auto
|
298 |
+
- `push_to_hub_model_id`: None
|
299 |
+
- `push_to_hub_organization`: None
|
300 |
+
- `mp_parameters`:
|
301 |
+
- `auto_find_batch_size`: False
|
302 |
+
- `full_determinism`: False
|
303 |
+
- `torchdynamo`: None
|
304 |
+
- `ray_scope`: last
|
305 |
+
- `ddp_timeout`: 1800
|
306 |
+
- `torch_compile`: False
|
307 |
+
- `torch_compile_backend`: None
|
308 |
+
- `torch_compile_mode`: None
|
309 |
+
- `dispatch_batches`: None
|
310 |
+
- `split_batches`: None
|
311 |
+
- `include_tokens_per_second`: False
|
312 |
+
- `include_num_input_tokens_seen`: False
|
313 |
+
- `neftune_noise_alpha`: None
|
314 |
+
- `optim_target_modules`: None
|
315 |
+
- `batch_eval_metrics`: False
|
316 |
+
- `batch_sampler`: batch_sampler
|
317 |
+
- `multi_dataset_batch_sampler`: round_robin
|
318 |
+
|
319 |
+
</details>
|
320 |
+
|
321 |
+
### Training Logs
|
322 |
+
| Epoch | Step | Training Loss |
|
323 |
+
|:------:|:----:|:-------------:|
|
324 |
+
| 0.2491 | 500 | 0.2573 |
|
325 |
+
| 0.4983 | 1000 | 0.1191 |
|
326 |
+
| 0.7474 | 1500 | 0.0877 |
|
327 |
+
| 0.9965 | 2000 | 0.0681 |
|
328 |
+
|
329 |
+
|
330 |
+
### Framework Versions
|
331 |
+
- Python: 3.8.10
|
332 |
+
- Sentence Transformers: 3.0.0
|
333 |
+
- Transformers: 4.41.2
|
334 |
+
- PyTorch: 2.3.0+cu118
|
335 |
+
- Accelerate: 0.30.1
|
336 |
+
- Datasets: 2.19.1
|
337 |
+
- Tokenizers: 0.19.1
|
338 |
+
|
339 |
+
## Citation
|
340 |
+
|
341 |
+
### BibTeX
|
342 |
+
|
343 |
+
#### Sentence Transformers
|
344 |
+
```bibtex
|
345 |
+
@inproceedings{reimers-2019-sentence-bert,
|
346 |
+
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
|
347 |
+
author = "Reimers, Nils and Gurevych, Iryna",
|
348 |
+
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
|
349 |
+
month = "11",
|
350 |
+
year = "2019",
|
351 |
+
publisher = "Association for Computational Linguistics",
|
352 |
+
url = "https://arxiv.org/abs/1908.10084",
|
353 |
+
}
|
354 |
+
```
|
355 |
+
|
356 |
+
#### MultipleNegativesRankingLoss
|
357 |
+
```bibtex
|
358 |
+
@misc{henderson2017efficient,
|
359 |
+
title={Efficient Natural Language Response Suggestion for Smart Reply},
|
360 |
+
author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
|
361 |
+
year={2017},
|
362 |
+
eprint={1705.00652},
|
363 |
+
archivePrefix={arXiv},
|
364 |
+
primaryClass={cs.CL}
|
365 |
+
}
|
366 |
+
```
|
367 |
+
|
368 |
+
<!--
|
369 |
+
## Glossary
|
370 |
+
|
371 |
+
*Clearly define terms in order to be accessible across audiences.*
|
372 |
+
-->
|
373 |
+
|
374 |
+
<!--
|
375 |
+
## Model Card Authors
|
376 |
+
|
377 |
+
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
|
378 |
+
-->
|
379 |
+
|
380 |
+
<!--
|
381 |
+
## Model Card Contact
|
382 |
+
|
383 |
+
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
|
384 |
+
-->
|
added_tokens.json
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"<mask>": 64000
|
3 |
+
}
|
bpe.codes
ADDED
The diff for this file is too large to render.
See raw diff
|
|
config.json
ADDED
@@ -0,0 +1,28 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"_name_or_path": "/home/data3/nghianguyen/MedicalRetrieval/checkpoint-ft/MultipleNegativesRankingLoss/1positive",
|
3 |
+
"architectures": [
|
4 |
+
"RobertaModel"
|
5 |
+
],
|
6 |
+
"attention_probs_dropout_prob": 0.1,
|
7 |
+
"bos_token_id": 0,
|
8 |
+
"classifier_dropout": null,
|
9 |
+
"eos_token_id": 2,
|
10 |
+
"hidden_act": "gelu",
|
11 |
+
"hidden_dropout_prob": 0.1,
|
12 |
+
"hidden_size": 768,
|
13 |
+
"initializer_range": 0.02,
|
14 |
+
"intermediate_size": 3072,
|
15 |
+
"layer_norm_eps": 1e-05,
|
16 |
+
"max_position_embeddings": 258,
|
17 |
+
"model_type": "roberta",
|
18 |
+
"num_attention_heads": 12,
|
19 |
+
"num_hidden_layers": 12,
|
20 |
+
"pad_token_id": 1,
|
21 |
+
"position_embedding_type": "absolute",
|
22 |
+
"tokenizer_class": "PhobertTokenizer",
|
23 |
+
"torch_dtype": "float32",
|
24 |
+
"transformers_version": "4.41.2",
|
25 |
+
"type_vocab_size": 1,
|
26 |
+
"use_cache": true,
|
27 |
+
"vocab_size": 64001
|
28 |
+
}
|
config_sentence_transformers.json
ADDED
@@ -0,0 +1,10 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"__version__": {
|
3 |
+
"sentence_transformers": "3.0.0",
|
4 |
+
"transformers": "4.41.2",
|
5 |
+
"pytorch": "2.3.0+cu118"
|
6 |
+
},
|
7 |
+
"prompts": {},
|
8 |
+
"default_prompt_name": null,
|
9 |
+
"similarity_fn_name": null
|
10 |
+
}
|
model.safetensors
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:72483e3f783dfe41f4eb2f7ae8f57923aead035648f9864f070621b7c6d8282c
|
3 |
+
size 540015464
|
modules.json
ADDED
@@ -0,0 +1,14 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
[
|
2 |
+
{
|
3 |
+
"idx": 0,
|
4 |
+
"name": "0",
|
5 |
+
"path": "",
|
6 |
+
"type": "sentence_transformers.models.Transformer"
|
7 |
+
},
|
8 |
+
{
|
9 |
+
"idx": 1,
|
10 |
+
"name": "1",
|
11 |
+
"path": "1_Pooling",
|
12 |
+
"type": "sentence_transformers.models.Pooling"
|
13 |
+
}
|
14 |
+
]
|
sentence_bert_config.json
ADDED
@@ -0,0 +1,4 @@
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"max_seq_length": 256,
|
3 |
+
"do_lower_case": false
|
4 |
+
}
|
special_tokens_map.json
ADDED
@@ -0,0 +1,51 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"bos_token": {
|
3 |
+
"content": "<s>",
|
4 |
+
"lstrip": false,
|
5 |
+
"normalized": false,
|
6 |
+
"rstrip": false,
|
7 |
+
"single_word": false
|
8 |
+
},
|
9 |
+
"cls_token": {
|
10 |
+
"content": "<s>",
|
11 |
+
"lstrip": false,
|
12 |
+
"normalized": false,
|
13 |
+
"rstrip": false,
|
14 |
+
"single_word": false
|
15 |
+
},
|
16 |
+
"eos_token": {
|
17 |
+
"content": "</s>",
|
18 |
+
"lstrip": false,
|
19 |
+
"normalized": false,
|
20 |
+
"rstrip": false,
|
21 |
+
"single_word": false
|
22 |
+
},
|
23 |
+
"mask_token": {
|
24 |
+
"content": "<mask>",
|
25 |
+
"lstrip": false,
|
26 |
+
"normalized": false,
|
27 |
+
"rstrip": false,
|
28 |
+
"single_word": false
|
29 |
+
},
|
30 |
+
"pad_token": {
|
31 |
+
"content": "<pad>",
|
32 |
+
"lstrip": false,
|
33 |
+
"normalized": false,
|
34 |
+
"rstrip": false,
|
35 |
+
"single_word": false
|
36 |
+
},
|
37 |
+
"sep_token": {
|
38 |
+
"content": "</s>",
|
39 |
+
"lstrip": false,
|
40 |
+
"normalized": false,
|
41 |
+
"rstrip": false,
|
42 |
+
"single_word": false
|
43 |
+
},
|
44 |
+
"unk_token": {
|
45 |
+
"content": "<unk>",
|
46 |
+
"lstrip": false,
|
47 |
+
"normalized": false,
|
48 |
+
"rstrip": false,
|
49 |
+
"single_word": false
|
50 |
+
}
|
51 |
+
}
|
tokenizer_config.json
ADDED
@@ -0,0 +1,54 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"added_tokens_decoder": {
|
3 |
+
"0": {
|
4 |
+
"content": "<s>",
|
5 |
+
"lstrip": false,
|
6 |
+
"normalized": false,
|
7 |
+
"rstrip": false,
|
8 |
+
"single_word": false,
|
9 |
+
"special": true
|
10 |
+
},
|
11 |
+
"1": {
|
12 |
+
"content": "<pad>",
|
13 |
+
"lstrip": false,
|
14 |
+
"normalized": false,
|
15 |
+
"rstrip": false,
|
16 |
+
"single_word": false,
|
17 |
+
"special": true
|
18 |
+
},
|
19 |
+
"2": {
|
20 |
+
"content": "</s>",
|
21 |
+
"lstrip": false,
|
22 |
+
"normalized": false,
|
23 |
+
"rstrip": false,
|
24 |
+
"single_word": false,
|
25 |
+
"special": true
|
26 |
+
},
|
27 |
+
"3": {
|
28 |
+
"content": "<unk>",
|
29 |
+
"lstrip": false,
|
30 |
+
"normalized": false,
|
31 |
+
"rstrip": false,
|
32 |
+
"single_word": false,
|
33 |
+
"special": true
|
34 |
+
},
|
35 |
+
"64000": {
|
36 |
+
"content": "<mask>",
|
37 |
+
"lstrip": false,
|
38 |
+
"normalized": false,
|
39 |
+
"rstrip": false,
|
40 |
+
"single_word": false,
|
41 |
+
"special": true
|
42 |
+
}
|
43 |
+
},
|
44 |
+
"bos_token": "<s>",
|
45 |
+
"clean_up_tokenization_spaces": true,
|
46 |
+
"cls_token": "<s>",
|
47 |
+
"eos_token": "</s>",
|
48 |
+
"mask_token": "<mask>",
|
49 |
+
"model_max_length": 256,
|
50 |
+
"pad_token": "<pad>",
|
51 |
+
"sep_token": "</s>",
|
52 |
+
"tokenizer_class": "PhobertTokenizer",
|
53 |
+
"unk_token": "<unk>"
|
54 |
+
}
|
vocab.txt
ADDED
The diff for this file is too large to render.
See raw diff
|
|