Nghiamc02 commited on
Commit
d0d2eca
1 Parent(s): 7c90fb2

Add new SentenceTransformer model.

Browse files
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 768,
3
+ "pooling_mode_cls_token": false,
4
+ "pooling_mode_mean_tokens": true,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
README.md ADDED
@@ -0,0 +1,384 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ language: []
3
+ library_name: sentence-transformers
4
+ tags:
5
+ - sentence-transformers
6
+ - sentence-similarity
7
+ - feature-extraction
8
+ - dataset_size:10K<n<100K
9
+ - loss:MultipleNegativesRankingLoss
10
+ base_model: vinai/phobert-base-v2
11
+ widget:
12
+ - source_sentence: sau khi cắt amiđan cháu nên lưu ý gì thưa cháu vừa cắt amiđan
13
+ cháu có thể ăn kem không vn
14
+ sentences:
15
+ - dán thuốc gì làm mụn mắt cá chân tự rụng em có đi mổ mắt cá chân nhưng vì thấy
16
+ vết thương còn hở nên không đi cắt chỉ để đến tận 1 tháng nghe bà chị nói bấy
17
+ giờ cắt chỉ sẽ đau lắm xin tư vấn giúp em có đúng không
18
+ - nguy cơ tái nhiễm hp ở người đã từng mắc cao không với người đã điều trị khỏi
19
+ hp rồi nguy cơ tái nhiễm có cao hay không ạ nếu nghi ngờ tái nhiễm thì nên kiểm
20
+ tra bằng phương pháp nào
21
+ - chỉ số creatinin là 112 5 liệu em có mắc bệnh suy thận chỉ số creatinin 112 5
22
+ pro trong nước tiểu 100 thường xuyên đi tiểu ban đêm đi tiểu 1 2 lần vậy cho em
23
+ hỏi đây có phải là bệnh suy thận và là suy thận giai đoạn 1
24
+ - source_sentence: anh em cần phải được đi khám để xác định vấn đề của và có biện
25
+ pháp điều trị thích hợp
26
+ sentences:
27
+ - đi cà nhắc sau phẫu thuật đứt dây chằng gối có phải di chứng anh em trước đây
28
+ có chơi đánh cầu lông do bất cẩn nên bị đứt dây chằng gối sau khi đi phẫu thuật
29
+ thì có thể đi bình thường nhưng d vn
30
+ - những thuốc tim mạch cần có trong tủ thuốc gia đình cho tôi hỏi người cao tuổi
31
+ có nên chuẩn bị một số thuốc tim mạch tại nhà không đó là những thuốc gì mong
32
+ nhận được sự tư vấn
33
+ - 'thuốc điều trị mề đay dị ứng có gây mất sữa mẹ thuốc chlorpheniramin có gây mất
34
+ sữa không ạ vì em bị nổi mề đay toàn thân ngứa quá không chịu nổi nên đi xét nghiệm
35
+ ạ em '
36
+ - source_sentence: có nên cho trẻ nằm máy lạnh khi bị sốt trẻ bị sốt nếu nằm quạt
37
+ hay máy lạnh thì cần lưu ý gì ạ
38
+ sentences:
39
+ - 'sau 5 tiếng uống thuốc bé vẫn không hạ sốt cần làm gì thưa nếu cho bé uống thuốc
40
+ sau 5 tiếng mà không hạ sốt thì cần làm gì ạ mong tư vấn sớm giúp em đang rất
41
+ lo lắng cho con ạ em '
42
+ - ' ơi mổ nội soi u xơ tử cung đã 1 tuần mà mẹ em vẫn đi tiểu ra máu mẹ em đã mổ
43
+ nội soi u xơ tử cung sau 1 tuần đi tiểu vẫn ra máu như vậy có nguy hiểm gì không
44
+ trần lai – bình dương'
45
+ - 'kết quả chụp x quang của bạn cho thấy buồng tử cung bình thường hai tai vòi thông
46
+ tai vòi phải thông chậm hơn bên trái bạn cứ tái khám chuyên khoa hiếm muộn để
47
+ được hỗ trợ '
48
+ - source_sentence: ung thư đại tràng t4nomo nghĩa là gì thưa bố cháu đang uống thuốc
49
+ điều trị ung thư đ
50
+ sentences:
51
+ - giảm phù cho bệnh nhân ung thư như thế nào ơi làm sao giảm phù cho bố em ạ bố
52
+ em bị ung thư giai đoạn cuối bị phù to ở chân bụng chướng
53
+ - biểu hiện trên cần loại trừ hẹp bao quy đầu hoặc nhiễm trùng tiểu ngoài ra cũng
54
+ cần loại trừ chứng bàng quang thần kinh bây giờ em nên đưa bé đến bệnh viện khám
55
+ và điều trị
56
+ - 'nước rửa mũi chảy vào tai gây đau có bị sao không ơi lúc em rửa mũi thì nước
57
+ có chảy lên tai sau đó bị ù và đau tai cho em hỏi nếu như vậy thì có bị gì không
58
+ ạ em '
59
+ - source_sentence: xử lý khi bị sứa cắn như thế nào nếu bị sứa cắn cần xử lý như thế
60
+ nào bôi thuốc gì thưa
61
+ sentences:
62
+ - trường hợp của em là bỏng độ 1 ngày thứ 4 hết đỏ hết rát nhưng rất ngứa là diễn
63
+ tiến tốt của bệnh có thể em sẽ khỏi trong vài ngày tới nếu tình trạng ngứa gây
64
+ khó chịu em có thể dùng thêm thuốc kháng histamin để chống ngứa
65
+ - 'về nơi điều trị chị nên đưa cháu đến các bệnh viện có chuyên khoa thần kinh tốt
66
+ nhất là thần kinh nhi ở tphcm hiện có bệnh viện nhi đồng 1 và nhi đồng 2 có chuyên
67
+ khoa này '
68
+ - thai hơn 6 tuần túi ối 23mm có nhỏ không cho em hỏi em đi siêu âm thai thì thai
69
+ được 6 tuần 2 ngày đường kính túi ối là 23mm như vậy có nhỏ không ạ tim thai 148
70
+ lần phút có chậm không ạ
71
+ pipeline_tag: sentence-similarity
72
+ ---
73
+
74
+ # SentenceTransformer based on vinai/phobert-base-v2
75
+
76
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [vinai/phobert-base-v2](https://huggingface.co/vinai/phobert-base-v2). It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
77
+
78
+ ## Model Details
79
+
80
+ ### Model Description
81
+ - **Model Type:** Sentence Transformer
82
+ - **Base model:** [vinai/phobert-base-v2](https://huggingface.co/vinai/phobert-base-v2) <!-- at revision 2b51e367d92093c9688112098510e6a58bab67cd -->
83
+ - **Maximum Sequence Length:** 256 tokens
84
+ - **Output Dimensionality:** 768 tokens
85
+ - **Similarity Function:** Cosine Similarity
86
+ <!-- - **Training Dataset:** Unknown -->
87
+ <!-- - **Language:** Unknown -->
88
+ <!-- - **License:** Unknown -->
89
+
90
+ ### Model Sources
91
+
92
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
93
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
94
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
95
+
96
+ ### Full Model Architecture
97
+
98
+ ```
99
+ SentenceTransformer(
100
+ (0): Transformer({'max_seq_length': 256, 'do_lower_case': False}) with Transformer model: RobertaModel
101
+ (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
102
+ )
103
+ ```
104
+
105
+ ## Usage
106
+
107
+ ### Direct Usage (Sentence Transformers)
108
+
109
+ First install the Sentence Transformers library:
110
+
111
+ ```bash
112
+ pip install -U sentence-transformers
113
+ ```
114
+
115
+ Then you can load this model and run inference.
116
+ ```python
117
+ from sentence_transformers import SentenceTransformer
118
+
119
+ # Download from the 🤗 Hub
120
+ model = SentenceTransformer("sentence_transformers_model_id")
121
+ # Run inference
122
+ sentences = [
123
+ 'xử lý khi bị sứa cắn như thế nào nếu bị sứa cắn cần xử lý như thế nào bôi thuốc gì thưa',
124
+ 'trường hợp của em là bỏng độ 1 ngày thứ 4 hết đỏ hết rát nhưng rất ngứa là diễn tiến tốt của bệnh có thể em sẽ khỏi trong vài ngày tới nếu tình trạng ngứa gây khó chịu em có thể dùng thêm thuốc kháng histamin để chống ngứa',
125
+ 'về nơi điều trị chị nên đưa cháu đến các bệnh viện có chuyên khoa thần kinh tốt nhất là thần kinh nhi ở tphcm hiện có bệnh viện nhi đồng 1 và nhi đồng 2 có chuyên khoa này ',
126
+ ]
127
+ embeddings = model.encode(sentences)
128
+ print(embeddings.shape)
129
+ # [3, 768]
130
+
131
+ # Get the similarity scores for the embeddings
132
+ similarities = model.similarity(embeddings, embeddings)
133
+ print(similarities.shape)
134
+ # [3, 3]
135
+ ```
136
+
137
+ <!--
138
+ ### Direct Usage (Transformers)
139
+
140
+ <details><summary>Click to see the direct usage in Transformers</summary>
141
+
142
+ </details>
143
+ -->
144
+
145
+ <!--
146
+ ### Downstream Usage (Sentence Transformers)
147
+
148
+ You can finetune this model on your own dataset.
149
+
150
+ <details><summary>Click to expand</summary>
151
+
152
+ </details>
153
+ -->
154
+
155
+ <!--
156
+ ### Out-of-Scope Use
157
+
158
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
159
+ -->
160
+
161
+ <!--
162
+ ## Bias, Risks and Limitations
163
+
164
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
165
+ -->
166
+
167
+ <!--
168
+ ### Recommendations
169
+
170
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
171
+ -->
172
+
173
+ ## Training Details
174
+
175
+ ### Training Dataset
176
+
177
+ #### Unnamed Dataset
178
+
179
+
180
+ * Size: 16,053 training samples
181
+ * Columns: <code>sentence_0</code> and <code>sentence_1</code>
182
+ * Approximate statistics based on the first 1000 samples:
183
+ | | sentence_0 | sentence_1 |
184
+ |:--------|:------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|
185
+ | type | string | string |
186
+ | details | <ul><li>min: 19 tokens</li><li>mean: 82.38 tokens</li><li>max: 256 tokens</li></ul> | <ul><li>min: 20 tokens</li><li>mean: 149.34 tokens</li><li>max: 256 tokens</li></ul> |
187
+ * Samples:
188
+ | sentence_0 | sentence_1 |
189
+ |:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
190
+ | <code>bệnh trĩ chữa tận gốc được không chào bác sĩ em bị bệnh trĩ nội hay bị lòi ra ngày nào em bón không đi ngoài là cảm giác đau rất khó chịu xin hỏi bị trĩ có chữa được tận gốc không và bằng phương pháp nào nên tới bệnh viện nào trị hiệu quả ạ em chưa từng điều trị trĩ</code> | <code>bệnh trĩ là bệnh phổ biến hiện nay trĩ mức độ nhẹ thì thường gây khó khăn khi đại tiện do búi trĩ phồng lên cản trở đường thoát của phân nặng hơn thì gây chảy máu khi đi tiêu trĩ ngoại hay trĩ nội kèm nứt hậu môn thì thường kèm triệu chứng đau đối với búi trĩ lớn nếu bị tắc nghẹt búi trĩ sẽ gây đau nhức viêm nhiễm và hoại tử mức độ trĩ nội gồm 4 độ trĩ độ 1 thì đi tiêu không rặn ra búi trĩ độ 2 thì sau đi tiêu đứng dậy búi trĩ tự thụt vào độ 3 thì phải lấy tay đẩy búi trĩ vào và độ 4 thì không thể lấy tay đẩy búi trĩ vào trong điều trị trĩ đối với trĩ mức độ nhẹ 1 2 thì có thể dùng thuốc uống thuốc bôi thuốc đặt hậu môn để giảm nhỏ kích thước búi trĩ và giảm đau trĩ mức độ nặng hơn hay trĩ có biến chứng thì nên mổ cắt trĩ có nhiều phương pháp để phẫu thuật mổ trĩ phương pháp ít tốn kém là thắt búi trĩ qua nội soi trực tràng tốt hơn chích xơ búi trĩ cho đến phương pháp hiện đại hơn và cũng tốn kém nhiều hơn là phương pháp longo với thắt búi trĩ qua nội soi trực tràng thì chi phí thấp nhất khoảng vài trăm ngàn em có thể về liền sau khi thắt trĩ nhưng thường phải làm lại nhiều lần và khá đau trĩ độ 2 thì trị bằng phương pháp này tốt hơn trĩ độ 3 độ 4 phương pháp longo thì ít đau hơn làm 1 lần nhưng cần nhập viện khoảng 2 ngày và giá thành cao vài triệu đồng phương pháp cắt trĩ bằng máy đốt điện cao tần hoặc máy cắt siêu âm được sử dụng cho tất cả mọi loại trĩ trĩ hỗn hợp trĩ biến chứng huyết khối da thừa hậu môn nhưng khá đau và chăm sóc khó để điều trị bệnh trĩ em nên đăng ký khám tại chuyên khoa ngoại tiêu hóa là phù hợp bệnh trĩ là bệnh có thể điều trị được nhưng vẫn có khả năng tái phát nếu tình trạng táo bón vẫn tiếp tục tiếp diễn sau đó do đó điều quan trọng là em cần thay đổi lối sống của mình ăn nhiều rau xanh uống nhiều nước hạn chế thức ăn nhiều gia vị cay và chất kích thích như rượu bia cà phê không hút thuốc lá tăng cường vận động tránh ngồi lâu khi đi vệ sinh em nhé</code> |
191
+ | <code>chữa trị triệu chứng ù tai như thế nào tôi bị ù tai chói tai khoảng 5 năm nay nghe không rõ vậy bệnh của tôi có thể chữa như thế nào tối đến tiếng ù tai chói tai rõ hơn tôi cảm thấy rất mệt mỏi nhờ tư vấn giúp ạ</code> | <code>ù tai có nhiều nguyên nhân từ tổn thương tại cơ quan tai giữa tai trong do viêm nhiễm u chấn thương… cho tới các tổn thương dẫn truyền và vùng vỏ não thính giác… muốn tìm hiểu nguyên nhân cần biết rõ bệnh sử diễn tiến ù tai hoàn cảnh khởi phát và thăm khám cẩn thận phương pháp điều trị sẽ tuỳ thuộc vào nguyên nhân tiên lượng rất khác nhau trước tiên bạn nên khám chuyên khoa tai ở bệnh viện tai mũi họng để làm rõ chẩn đoán bạn nhé </code> |
192
+ | <code>có thể sinh con lần 3 sau 2 lần đẻ mổ phụ nữ hai lần đẻ mổ thì có thể sinh con lần thứ ba không</code> | <code>nếu lần mổ thứ 2 không căn dặn là không được có thai nữa thì bạn vẫn có thể sinh lần nữa nhưng chú ý là nên theo dõi ở bv sản khoa lớn có phòng mổ bởi vì lần 3 sẽ phải sinh mổ</code> |
193
+ * Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
194
+ ```json
195
+ {
196
+ "scale": 20.0,
197
+ "similarity_fct": "cos_sim"
198
+ }
199
+ ```
200
+
201
+ ### Training Hyperparameters
202
+ #### Non-Default Hyperparameters
203
+
204
+ - `num_train_epochs`: 1
205
+ - `multi_dataset_batch_sampler`: round_robin
206
+
207
+ #### All Hyperparameters
208
+ <details><summary>Click to expand</summary>
209
+
210
+ - `overwrite_output_dir`: False
211
+ - `do_predict`: False
212
+ - `eval_strategy`: no
213
+ - `prediction_loss_only`: True
214
+ - `per_device_train_batch_size`: 8
215
+ - `per_device_eval_batch_size`: 8
216
+ - `per_gpu_train_batch_size`: None
217
+ - `per_gpu_eval_batch_size`: None
218
+ - `gradient_accumulation_steps`: 1
219
+ - `eval_accumulation_steps`: None
220
+ - `learning_rate`: 5e-05
221
+ - `weight_decay`: 0.0
222
+ - `adam_beta1`: 0.9
223
+ - `adam_beta2`: 0.999
224
+ - `adam_epsilon`: 1e-08
225
+ - `max_grad_norm`: 1
226
+ - `num_train_epochs`: 1
227
+ - `max_steps`: -1
228
+ - `lr_scheduler_type`: linear
229
+ - `lr_scheduler_kwargs`: {}
230
+ - `warmup_ratio`: 0.0
231
+ - `warmup_steps`: 0
232
+ - `log_level`: passive
233
+ - `log_level_replica`: warning
234
+ - `log_on_each_node`: True
235
+ - `logging_nan_inf_filter`: True
236
+ - `save_safetensors`: True
237
+ - `save_on_each_node`: False
238
+ - `save_only_model`: False
239
+ - `restore_callback_states_from_checkpoint`: False
240
+ - `no_cuda`: False
241
+ - `use_cpu`: False
242
+ - `use_mps_device`: False
243
+ - `seed`: 42
244
+ - `data_seed`: None
245
+ - `jit_mode_eval`: False
246
+ - `use_ipex`: False
247
+ - `bf16`: False
248
+ - `fp16`: False
249
+ - `fp16_opt_level`: O1
250
+ - `half_precision_backend`: auto
251
+ - `bf16_full_eval`: False
252
+ - `fp16_full_eval`: False
253
+ - `tf32`: None
254
+ - `local_rank`: 0
255
+ - `ddp_backend`: None
256
+ - `tpu_num_cores`: None
257
+ - `tpu_metrics_debug`: False
258
+ - `debug`: []
259
+ - `dataloader_drop_last`: False
260
+ - `dataloader_num_workers`: 0
261
+ - `dataloader_prefetch_factor`: None
262
+ - `past_index`: -1
263
+ - `disable_tqdm`: False
264
+ - `remove_unused_columns`: True
265
+ - `label_names`: None
266
+ - `load_best_model_at_end`: False
267
+ - `ignore_data_skip`: False
268
+ - `fsdp`: []
269
+ - `fsdp_min_num_params`: 0
270
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
271
+ - `fsdp_transformer_layer_cls_to_wrap`: None
272
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
273
+ - `deepspeed`: None
274
+ - `label_smoothing_factor`: 0.0
275
+ - `optim`: adamw_torch
276
+ - `optim_args`: None
277
+ - `adafactor`: False
278
+ - `group_by_length`: False
279
+ - `length_column_name`: length
280
+ - `ddp_find_unused_parameters`: None
281
+ - `ddp_bucket_cap_mb`: None
282
+ - `ddp_broadcast_buffers`: False
283
+ - `dataloader_pin_memory`: True
284
+ - `dataloader_persistent_workers`: False
285
+ - `skip_memory_metrics`: True
286
+ - `use_legacy_prediction_loop`: False
287
+ - `push_to_hub`: False
288
+ - `resume_from_checkpoint`: None
289
+ - `hub_model_id`: None
290
+ - `hub_strategy`: every_save
291
+ - `hub_private_repo`: False
292
+ - `hub_always_push`: False
293
+ - `gradient_checkpointing`: False
294
+ - `gradient_checkpointing_kwargs`: None
295
+ - `include_inputs_for_metrics`: False
296
+ - `eval_do_concat_batches`: True
297
+ - `fp16_backend`: auto
298
+ - `push_to_hub_model_id`: None
299
+ - `push_to_hub_organization`: None
300
+ - `mp_parameters`:
301
+ - `auto_find_batch_size`: False
302
+ - `full_determinism`: False
303
+ - `torchdynamo`: None
304
+ - `ray_scope`: last
305
+ - `ddp_timeout`: 1800
306
+ - `torch_compile`: False
307
+ - `torch_compile_backend`: None
308
+ - `torch_compile_mode`: None
309
+ - `dispatch_batches`: None
310
+ - `split_batches`: None
311
+ - `include_tokens_per_second`: False
312
+ - `include_num_input_tokens_seen`: False
313
+ - `neftune_noise_alpha`: None
314
+ - `optim_target_modules`: None
315
+ - `batch_eval_metrics`: False
316
+ - `batch_sampler`: batch_sampler
317
+ - `multi_dataset_batch_sampler`: round_robin
318
+
319
+ </details>
320
+
321
+ ### Training Logs
322
+ | Epoch | Step | Training Loss |
323
+ |:------:|:----:|:-------------:|
324
+ | 0.2491 | 500 | 0.2573 |
325
+ | 0.4983 | 1000 | 0.1191 |
326
+ | 0.7474 | 1500 | 0.0877 |
327
+ | 0.9965 | 2000 | 0.0681 |
328
+
329
+
330
+ ### Framework Versions
331
+ - Python: 3.8.10
332
+ - Sentence Transformers: 3.0.0
333
+ - Transformers: 4.41.2
334
+ - PyTorch: 2.3.0+cu118
335
+ - Accelerate: 0.30.1
336
+ - Datasets: 2.19.1
337
+ - Tokenizers: 0.19.1
338
+
339
+ ## Citation
340
+
341
+ ### BibTeX
342
+
343
+ #### Sentence Transformers
344
+ ```bibtex
345
+ @inproceedings{reimers-2019-sentence-bert,
346
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
347
+ author = "Reimers, Nils and Gurevych, Iryna",
348
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
349
+ month = "11",
350
+ year = "2019",
351
+ publisher = "Association for Computational Linguistics",
352
+ url = "https://arxiv.org/abs/1908.10084",
353
+ }
354
+ ```
355
+
356
+ #### MultipleNegativesRankingLoss
357
+ ```bibtex
358
+ @misc{henderson2017efficient,
359
+ title={Efficient Natural Language Response Suggestion for Smart Reply},
360
+ author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
361
+ year={2017},
362
+ eprint={1705.00652},
363
+ archivePrefix={arXiv},
364
+ primaryClass={cs.CL}
365
+ }
366
+ ```
367
+
368
+ <!--
369
+ ## Glossary
370
+
371
+ *Clearly define terms in order to be accessible across audiences.*
372
+ -->
373
+
374
+ <!--
375
+ ## Model Card Authors
376
+
377
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
378
+ -->
379
+
380
+ <!--
381
+ ## Model Card Contact
382
+
383
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
384
+ -->
added_tokens.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ {
2
+ "<mask>": 64000
3
+ }
bpe.codes ADDED
The diff for this file is too large to render. See raw diff
 
config.json ADDED
@@ -0,0 +1,28 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "/home/data3/nghianguyen/MedicalRetrieval/checkpoint-ft/MultipleNegativesRankingLoss/1positive",
3
+ "architectures": [
4
+ "RobertaModel"
5
+ ],
6
+ "attention_probs_dropout_prob": 0.1,
7
+ "bos_token_id": 0,
8
+ "classifier_dropout": null,
9
+ "eos_token_id": 2,
10
+ "hidden_act": "gelu",
11
+ "hidden_dropout_prob": 0.1,
12
+ "hidden_size": 768,
13
+ "initializer_range": 0.02,
14
+ "intermediate_size": 3072,
15
+ "layer_norm_eps": 1e-05,
16
+ "max_position_embeddings": 258,
17
+ "model_type": "roberta",
18
+ "num_attention_heads": 12,
19
+ "num_hidden_layers": 12,
20
+ "pad_token_id": 1,
21
+ "position_embedding_type": "absolute",
22
+ "tokenizer_class": "PhobertTokenizer",
23
+ "torch_dtype": "float32",
24
+ "transformers_version": "4.41.2",
25
+ "type_vocab_size": 1,
26
+ "use_cache": true,
27
+ "vocab_size": 64001
28
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "3.0.0",
4
+ "transformers": "4.41.2",
5
+ "pytorch": "2.3.0+cu118"
6
+ },
7
+ "prompts": {},
8
+ "default_prompt_name": null,
9
+ "similarity_fn_name": null
10
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:72483e3f783dfe41f4eb2f7ae8f57923aead035648f9864f070621b7c6d8282c
3
+ size 540015464
modules.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ }
14
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 256,
3
+ "do_lower_case": false
4
+ }
special_tokens_map.json ADDED
@@ -0,0 +1,51 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": {
3
+ "content": "<s>",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "cls_token": {
10
+ "content": "<s>",
11
+ "lstrip": false,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "eos_token": {
17
+ "content": "</s>",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "mask_token": {
24
+ "content": "<mask>",
25
+ "lstrip": false,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "pad_token": {
31
+ "content": "<pad>",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ },
37
+ "sep_token": {
38
+ "content": "</s>",
39
+ "lstrip": false,
40
+ "normalized": false,
41
+ "rstrip": false,
42
+ "single_word": false
43
+ },
44
+ "unk_token": {
45
+ "content": "<unk>",
46
+ "lstrip": false,
47
+ "normalized": false,
48
+ "rstrip": false,
49
+ "single_word": false
50
+ }
51
+ }
tokenizer_config.json ADDED
@@ -0,0 +1,54 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "<s>",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "<pad>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "</s>",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "<unk>",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "64000": {
36
+ "content": "<mask>",
37
+ "lstrip": false,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "bos_token": "<s>",
45
+ "clean_up_tokenization_spaces": true,
46
+ "cls_token": "<s>",
47
+ "eos_token": "</s>",
48
+ "mask_token": "<mask>",
49
+ "model_max_length": 256,
50
+ "pad_token": "<pad>",
51
+ "sep_token": "</s>",
52
+ "tokenizer_class": "PhobertTokenizer",
53
+ "unk_token": "<unk>"
54
+ }
vocab.txt ADDED
The diff for this file is too large to render. See raw diff