Upload folder using huggingface_hub (#1)
Browse files- Upload folder using huggingface_hub (879cf857f47668ea7910b523657f2f37deb48cfc)
- 1_Pooling/config.json +10 -0
- README.md +432 -0
- tokenizer.json +3 -0
1_Pooling/config.json
ADDED
@@ -0,0 +1,10 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
{
|
2 |
+
"word_embedding_dimension": 768,
|
3 |
+
"pooling_mode_cls_token": false,
|
4 |
+
"pooling_mode_mean_tokens": true,
|
5 |
+
"pooling_mode_max_tokens": false,
|
6 |
+
"pooling_mode_mean_sqrt_len_tokens": false,
|
7 |
+
"pooling_mode_weightedmean_tokens": false,
|
8 |
+
"pooling_mode_lasttoken": false,
|
9 |
+
"include_prompt": true
|
10 |
+
}
|
README.md
ADDED
@@ -0,0 +1,432 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
---
|
2 |
+
language: []
|
3 |
+
library_name: sentence-transformers
|
4 |
+
tags:
|
5 |
+
- sentence-transformers
|
6 |
+
- sentence-similarity
|
7 |
+
- feature-extraction
|
8 |
+
- dataset_size:10K<n<100K
|
9 |
+
- loss:CosineSimilarityLoss
|
10 |
+
base_model: sentence-transformers/paraphrase-multilingual-mpnet-base-v2
|
11 |
+
metrics:
|
12 |
+
- pearson_cosine
|
13 |
+
- spearman_cosine
|
14 |
+
- pearson_manhattan
|
15 |
+
- spearman_manhattan
|
16 |
+
- pearson_euclidean
|
17 |
+
- spearman_euclidean
|
18 |
+
- pearson_dot
|
19 |
+
- spearman_dot
|
20 |
+
- pearson_max
|
21 |
+
- spearman_max
|
22 |
+
widget:
|
23 |
+
- source_sentence: Có những loại chứng thực nào?
|
24 |
+
sentences:
|
25 |
+
- Chứng cứ trong vụ án hình sự được hiểu như thế nào?
|
26 |
+
- Thời điểm hợp đồng cầm cố tài sản có hiệu lực là khi nào?
|
27 |
+
- Viên chức chuyên ngành công tác xã hội có nhiệm vụ gì?
|
28 |
+
- source_sentence: Premic vitamin là hỗn hợp gì?
|
29 |
+
sentences:
|
30 |
+
- 04 mức bồi dưỡng bằng hiện vật cho người lao động năm 2024?
|
31 |
+
- Thủ tục đăng ký khai tử cho người Việt Nam ở trong nước
|
32 |
+
- Trường hợp nào được mua pháo hoa của Bộ Quốc phòng về sử dụng?
|
33 |
+
- source_sentence: Khi nào thẻ CCCD sẽ được cấp lại?
|
34 |
+
sentences:
|
35 |
+
- Sai sót về thông tin trên thẻ CCCD được cấp đổi hay cấp lại?
|
36 |
+
- 1. Dùng bảo hiểm xe máy online có vi phạm pháp luật không?
|
37 |
+
- Bản chất của chủ nghĩa xã hội ở Việt Nam là gì?
|
38 |
+
- source_sentence: Mẫu đơn cam kết cho ở nhờ 2024?
|
39 |
+
sentences:
|
40 |
+
- Cách đăng ký tạm trú online tại nhà dễ thực hiện nhất 2023?
|
41 |
+
- Hồ sơ thiết kế xe ô tô cải tạo do cơ quan nào thẩm định?
|
42 |
+
- Thủ tục thu hồi giấy phép kinh doanh vận tải bằng xe ô tô như thế nào?
|
43 |
+
- source_sentence: Nhập hộ khẩu cho con ở đâu?
|
44 |
+
sentences:
|
45 |
+
- Xác định quê quán đối với trẻ em bị bỏ rơi như thế nào?
|
46 |
+
- Kéo đường dây điện qua đất của người khác có được không?
|
47 |
+
- Đặc quyền của xe biển số đỏ là gì?
|
48 |
+
pipeline_tag: sentence-similarity
|
49 |
+
model-index:
|
50 |
+
- name: SentenceTransformer based on sentence-transformers/paraphrase-multilingual-mpnet-base-v2
|
51 |
+
results:
|
52 |
+
- task:
|
53 |
+
type: semantic-similarity
|
54 |
+
name: Semantic Similarity
|
55 |
+
dataset:
|
56 |
+
name: Unknown
|
57 |
+
type: unknown
|
58 |
+
metrics:
|
59 |
+
- type: pearson_cosine
|
60 |
+
value: 0.9803795255081482
|
61 |
+
name: Pearson Cosine
|
62 |
+
- type: spearman_cosine
|
63 |
+
value: 0.8645230973533456
|
64 |
+
name: Spearman Cosine
|
65 |
+
- type: pearson_manhattan
|
66 |
+
value: 0.9726972909054996
|
67 |
+
name: Pearson Manhattan
|
68 |
+
- type: spearman_manhattan
|
69 |
+
value: 0.8644864331598612
|
70 |
+
name: Spearman Manhattan
|
71 |
+
- type: pearson_euclidean
|
72 |
+
value: 0.9728920367615165
|
73 |
+
name: Pearson Euclidean
|
74 |
+
- type: spearman_euclidean
|
75 |
+
value: 0.8645176892999815
|
76 |
+
name: Spearman Euclidean
|
77 |
+
- type: pearson_dot
|
78 |
+
value: 0.9583904271234501
|
79 |
+
name: Pearson Dot
|
80 |
+
- type: spearman_dot
|
81 |
+
value: 0.861105909034599
|
82 |
+
name: Spearman Dot
|
83 |
+
- type: pearson_max
|
84 |
+
value: 0.9803795255081482
|
85 |
+
name: Pearson Max
|
86 |
+
- type: spearman_max
|
87 |
+
value: 0.8645230973533456
|
88 |
+
name: Spearman Max
|
89 |
+
---
|
90 |
+
|
91 |
+
# SentenceTransformer based on sentence-transformers/paraphrase-multilingual-mpnet-base-v2
|
92 |
+
|
93 |
+
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [sentence-transformers/paraphrase-multilingual-mpnet-base-v2](https://huggingface.co/sentence-transformers/paraphrase-multilingual-mpnet-base-v2). It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
|
94 |
+
|
95 |
+
## Model Details
|
96 |
+
|
97 |
+
### Model Description
|
98 |
+
- **Model Type:** Sentence Transformer
|
99 |
+
- **Base model:** [sentence-transformers/paraphrase-multilingual-mpnet-base-v2](https://huggingface.co/sentence-transformers/paraphrase-multilingual-mpnet-base-v2) <!-- at revision 79f2382ceacceacdf38563d7c5d16b9ff8d725d6 -->
|
100 |
+
- **Maximum Sequence Length:** 300 tokens
|
101 |
+
- **Output Dimensionality:** 768 tokens
|
102 |
+
- **Similarity Function:** Cosine Similarity
|
103 |
+
<!-- - **Training Dataset:** Unknown -->
|
104 |
+
<!-- - **Language:** Unknown -->
|
105 |
+
<!-- - **License:** Unknown -->
|
106 |
+
|
107 |
+
### Model Sources
|
108 |
+
|
109 |
+
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
|
110 |
+
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
|
111 |
+
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
|
112 |
+
|
113 |
+
### Full Model Architecture
|
114 |
+
|
115 |
+
```
|
116 |
+
SentenceTransformer(
|
117 |
+
(0): Transformer({'max_seq_length': 300, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
|
118 |
+
(1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
|
119 |
+
)
|
120 |
+
```
|
121 |
+
|
122 |
+
## Usage
|
123 |
+
|
124 |
+
### Direct Usage (Sentence Transformers)
|
125 |
+
|
126 |
+
First install the Sentence Transformers library:
|
127 |
+
|
128 |
+
```bash
|
129 |
+
pip install -U sentence-transformers
|
130 |
+
```
|
131 |
+
|
132 |
+
Then you can load this model and run inference.
|
133 |
+
```python
|
134 |
+
from sentence_transformers import SentenceTransformer
|
135 |
+
|
136 |
+
# Download from the 🤗 Hub
|
137 |
+
model = SentenceTransformer("minhquan6203/paraphrase-vietnamese-law")
|
138 |
+
# Run inference
|
139 |
+
sentences = [
|
140 |
+
'Nhập hộ khẩu cho con ở đâu?',
|
141 |
+
'Xác định quê quán đối với trẻ em bị bỏ rơi như thế nào?',
|
142 |
+
'Kéo đường dây điện qua đất của người khác có được không?',
|
143 |
+
]
|
144 |
+
embeddings = model.encode(sentences)
|
145 |
+
print(embeddings.shape)
|
146 |
+
# [3, 768]
|
147 |
+
|
148 |
+
# Get the similarity scores for the embeddings
|
149 |
+
similarities = model.similarity(embeddings, embeddings)
|
150 |
+
print(similarities.shape)
|
151 |
+
# [3, 3]
|
152 |
+
```
|
153 |
+
|
154 |
+
<!--
|
155 |
+
### Direct Usage (Transformers)
|
156 |
+
|
157 |
+
<details><summary>Click to see the direct usage in Transformers</summary>
|
158 |
+
|
159 |
+
</details>
|
160 |
+
-->
|
161 |
+
|
162 |
+
<!--
|
163 |
+
### Downstream Usage (Sentence Transformers)
|
164 |
+
|
165 |
+
You can finetune this model on your own dataset.
|
166 |
+
|
167 |
+
<details><summary>Click to expand</summary>
|
168 |
+
|
169 |
+
</details>
|
170 |
+
-->
|
171 |
+
|
172 |
+
<!--
|
173 |
+
### Out-of-Scope Use
|
174 |
+
|
175 |
+
*List how the model may foreseeably be misused and address what users ought not to do with the model.*
|
176 |
+
-->
|
177 |
+
|
178 |
+
## Evaluation
|
179 |
+
|
180 |
+
### Metrics
|
181 |
+
|
182 |
+
#### Semantic Similarity
|
183 |
+
|
184 |
+
* Evaluated with [<code>EmbeddingSimilarityEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.EmbeddingSimilarityEvaluator)
|
185 |
+
|
186 |
+
| Metric | Value |
|
187 |
+
|:-------------------|:-----------|
|
188 |
+
| pearson_cosine | 0.9804 |
|
189 |
+
| spearman_cosine | 0.8645 |
|
190 |
+
| pearson_manhattan | 0.9727 |
|
191 |
+
| spearman_manhattan | 0.8645 |
|
192 |
+
| pearson_euclidean | 0.9729 |
|
193 |
+
| spearman_euclidean | 0.8645 |
|
194 |
+
| pearson_dot | 0.9584 |
|
195 |
+
| spearman_dot | 0.8611 |
|
196 |
+
| pearson_max | 0.9804 |
|
197 |
+
| **spearman_max** | **0.8645** |
|
198 |
+
|
199 |
+
<!--
|
200 |
+
## Bias, Risks and Limitations
|
201 |
+
|
202 |
+
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
|
203 |
+
-->
|
204 |
+
|
205 |
+
<!--
|
206 |
+
### Recommendations
|
207 |
+
|
208 |
+
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
|
209 |
+
-->
|
210 |
+
|
211 |
+
## Training Details
|
212 |
+
|
213 |
+
### Training Dataset
|
214 |
+
|
215 |
+
#### Unnamed Dataset
|
216 |
+
|
217 |
+
|
218 |
+
* Size: 78,240 training samples
|
219 |
+
* Columns: <code>sentence_0</code>, <code>sentence_1</code>, and <code>label</code>
|
220 |
+
* Approximate statistics based on the first 1000 samples:
|
221 |
+
| | sentence_0 | sentence_1 | label |
|
222 |
+
|:--------|:----------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|:--------------------------------------------------------------|
|
223 |
+
| type | string | string | float |
|
224 |
+
| details | <ul><li>min: 7 tokens</li><li>mean: 20.73 tokens</li><li>max: 54 tokens</li></ul> | <ul><li>min: 19 tokens</li><li>mean: 185.68 tokens</li><li>max: 300 tokens</li></ul> | <ul><li>min: 0.0</li><li>mean: 0.5</li><li>max: 1.0</li></ul> |
|
225 |
+
* Samples:
|
226 |
+
| sentence_0 | sentence_1 | label |
|
227 |
+
|:----------------------------------------------------------------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-----------------|
|
228 |
+
| <code>Điều khiển xe ô tô tải chở hàng vượt trọng tải cho phép được ghi trong Giấy đăng kiểm từ 30% - 50% thì bị xử phạt thế nào?</code> | <code>Tại khoản 2 Điều 16 Nghị định 65/2023/NĐ-CP có quy định về chi phí phải nộp khi yêu cầu sửa đổi, bổ sung đơn đăng ký sở hữu công nghiệp như sau: Như vậy, người yêu cầu sửa đổi, bổ sung đơn đăng ký sở hữu công nghiệp phải nộp các chi phí bao gồm: - Phí thẩm định yêu cầu sửa đổi, bổ sung cho mỗi nội dung sửa đổi theo quy định và bản sao chứng từ nộp phí nếu nộp phí qua dịch vụ bưu chính hoặc nộp trực tiếp vào tài khoản của cơ quan quản lý nhà nước về quyền sở hữu công nghiệp; - Phí công bố thông tin sửa đổi, bổ sung đơn theo quy định nếu nội dung sửa đổi, bổ sung phải được công bố trong trường hợp yêu cầu sửa đổi, bổ sung thông tin liên quan đến: Đơn hợp lệ về mặt hình thức ghi trong quyết định chấp nhận đơn hợp lệ; tên, quốc tịch của tác giả sáng chế, kiểu dáng công nghiệp, thiết kế bố trí; Bản tóm tắt sáng chế kèm theo hình vẽ (nếu có); bộ ảnh chụp hoặc bản vẽ kiểu dáng công nghiệp; mẫu nhãn hiệu và danh mục hàng hóa, dịch vụ kèm theo; bản mô tả tính chất đặc thù của sản phẩm mang chỉ dẫn địa lý và tên sản phẩm mang chỉ dẫn địa lý - Trường hợp việc sửa đổi, bổ sung phải thực hiện để khắc phục những sai sót do lỗi của cơ quan quản lý nhà nước về quyền sở hữu công nghiệp, người nộp đơn không phải nộp phí công bố. Trân trọng!</code> | <code>0.0</code> |
|
229 |
+
| <code>Hợp đồng nghiên cứu khoa học và phát triển công nghệ chấm dứt khi nào?</code> | <code>Căn cứ Tiểu mục 3 Mục 2 Nghị quyết 27-NQ/TW năm 2018 quy định bảng lương mới của cán bộ, công chức, viên chức và lực lượng vũ trang sau cải cách tiền lương như sau: (1) Thiết kế cơ cấu tiền lương mới gồm: - Lương cơ bản (chiếm tỷ lệ trong khoảng 70% tổng quỹ lương) và các khoản phụ cấp (chiếm khoảng 30% tổng quỹ lương). - Bổ sung tiền thưởng (quỹ tiền thưởng tỷ lệ trong khoảng 10% tổng quỹ tiền lương của năm, không bao gồm phụ cấp). (2) Xây dựng, ban hành hệ thống bảng lương mới theo vị trí việc làm, chức danh và chức vụ lãnh đạo thay thế hệ thống bảng lương hiện hành; chuyển xếp lương cũ sang lương mới, bảo đảm không thấp hơn tiền lương hiện hưởng, gồm: - Xây dựng 1 bảng lương chức vụ áp dụng đối với cán bộ, công chức, viên chức giữ chức vụ lãnh đạo (bầu cử và bổ nhiệm) trong hệ thống chính trị từ Trung ương đến cấp xã theo nguyên tắc: + Mức lương chức vụ phải thể hiện thứ bậc trong hệ thống chính trị; giữ chức vụ lãnh đạo nào thì hưởng lương theo chức vụ đó, nếu một người giữ nhiều chức vụ thì hưởng một mức lương chức vụ cao nhất; giữ chức vụ lãnh đạo tương đương nhau thì hưởng mức lương chức vụ như nhau; mức lương chức vụ của người lãnh đạo cấp trên phải cao hơn mức lương chức vụ của người lãnh đạo cấp dưới; + Quy định một mức lương chức vụ cho mỗi loại chức vụ tương đương; không phân loại bộ, ngành, ban, uỷ ban và tương đương ở Trung ương khi xây dựng bảng lương chức vụ ở Trung ương; không phân biệt mức lương chức vụ khác nhau đối với cùng chức danh lãnh đạo theo phân loại đơn vị hành chính ở địa phương mà thực hiện bằng chế độ phụ cấp. + Việc phân loại chức vụ lãnh đạo tương đương trong hệ thống chính trị để thiết kế bảng lương chức vụ do Bộ Chính trị quyết định sau khi đã báo cáo Ban Chấp hành Trung ương. - Xây dựng 1 bảng lương chuyên môn, nghiệp vụ theo ngạch công chức và chức danh nghề nghiệp viên chức áp dụng chung đối với công chức, viên chức không giữ chức danh lãnh đạo; mỗi ngạch công chức, chức danh nghề nghiệp viên chức có nhiều bậc lương theo nguyên tắc: + Cùng mức độ phức tạp công việc thì mức lương như nhau; điều kiện lao động cao hơn bình thường và ưu đãi nghề thì thực hiện bằng chế độ phụ cấp theo nghề; sắp xếp lại nhóm ngạch và số bậc trong các ngạch công chức, chức danh nghề nghiệp viên chức, khuyến khích công chức, viên chức nâng cao trình độ chuyên môn, nghiệp vụ. + Việc bổ nhiệm vào ngạch công chức hoặc chức danh nghề nghiệp viên chức phải gắn với vị trí việc làm và cơ cấu ngạch công chức, chức danh nghề nghiệp viên chức do cơ quan, tổ chức, đơn vị quản lý công chức, viên chức thực hiện. - Xây dựng 3 bảng lương đối với lực lượng vũ trang, gồm: + 1 bảng lương sĩ quan quân đội, sĩ quan, hạ sĩ quan nghiệp vụ công an. + 1 bảng lương quân nhân chuyên nghiệp, chuyên môn kỹ thuật công an; + 1 bảng lương công nhân quốc phòng, công nhân công an.</code> | <code>0.0</code> |
|
230 |
+
| <code>Chưa đăng ký kết hôn có quyền bắt buộc người ba cấp dưỡng cho con được hay không?</code> | <code>Các nguyên tắc, trình tự xử lý kỷ luật lao động được quy định tại Điều 122 Bộ luật Lao động 2019, cụ thể: (1) Việc xử lý kỷ luật lao động được quy định như sau: - Người sử dụng lao động phải chứng minh được lỗi của người lao động; - Phải có sự tham gia của tổ chức đại diện người lao động tại cơ sở mà người lao động đang bị xử lý kỷ luật là thành viên; - Người lao động phải có mặt và có quyền tự bào chữa, nhờ luật sư hoặc tổ chức đại diện người lao động bào chữa; trường hợp là người chưa đủ 15 tuổi thì phải có sự tham gia của người đại diện theo pháp luật; - Việc xử lý kỷ luật lao động phải được ghi thành biên bản. (2) Không được áp dụng nhiều hình thức xử lý kỷ luật lao động đối với một hành vi vi phạm kỷ luật lao động. (3) Khi một người lao động đồng thời có nhiều hành vi vi phạm kỷ luật lao động thì chỉ áp dụng hình thức kỷ luật cao nhất tương ứng với hành vi vi phạm nặng nhất. (4) Không được xử lý kỷ luật lao động đối với người lao động đang trong thời gian sau đây: - Nghỉ ốm đau, điều dưỡng; nghỉ việc được sự đồng ý của người sử dụng lao động; - Đang bị tạm giữ, tạm giam; - Đang chờ kết quả của cơ quan có thẩm quyền điều tra xác minh và kết luận đối với hành vi vi phạm được quy định tại khoản 1 và khoản 2 Điều 125 Bộ luật Lao động 2019 - Người lao động nữ mang thai; người lao động nghỉ thai sản, nuôi con dưới 12 tháng tuổi. (5) Không xử lý kỷ luật lao động đối với người lao động vi phạm kỷ luật lao động trong khi mắc bệnh tâm thần hoặc một bệnh khác làm mất khả năng nhận thức hoặc khả năng điều khiển hành vi của mình. Trân trọng!</code> | <code>0.0</code> |
|
231 |
+
* Loss: [<code>CosineSimilarityLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#cosinesimilarityloss) with these parameters:
|
232 |
+
```json
|
233 |
+
{
|
234 |
+
"loss_fct": "torch.nn.modules.loss.MSELoss"
|
235 |
+
}
|
236 |
+
```
|
237 |
+
|
238 |
+
### Training Hyperparameters
|
239 |
+
#### Non-Default Hyperparameters
|
240 |
+
|
241 |
+
- `per_device_train_batch_size`: 32
|
242 |
+
- `per_device_eval_batch_size`: 32
|
243 |
+
- `num_train_epochs`: 5
|
244 |
+
- `multi_dataset_batch_sampler`: round_robin
|
245 |
+
|
246 |
+
#### All Hyperparameters
|
247 |
+
<details><summary>Click to expand</summary>
|
248 |
+
|
249 |
+
- `overwrite_output_dir`: False
|
250 |
+
- `do_predict`: False
|
251 |
+
- `prediction_loss_only`: True
|
252 |
+
- `per_device_train_batch_size`: 32
|
253 |
+
- `per_device_eval_batch_size`: 32
|
254 |
+
- `per_gpu_train_batch_size`: None
|
255 |
+
- `per_gpu_eval_batch_size`: None
|
256 |
+
- `gradient_accumulation_steps`: 1
|
257 |
+
- `eval_accumulation_steps`: None
|
258 |
+
- `learning_rate`: 5e-05
|
259 |
+
- `weight_decay`: 0.0
|
260 |
+
- `adam_beta1`: 0.9
|
261 |
+
- `adam_beta2`: 0.999
|
262 |
+
- `adam_epsilon`: 1e-08
|
263 |
+
- `max_grad_norm`: 1
|
264 |
+
- `num_train_epochs`: 5
|
265 |
+
- `max_steps`: -1
|
266 |
+
- `lr_scheduler_type`: linear
|
267 |
+
- `lr_scheduler_kwargs`: {}
|
268 |
+
- `warmup_ratio`: 0.0
|
269 |
+
- `warmup_steps`: 0
|
270 |
+
- `log_level`: passive
|
271 |
+
- `log_level_replica`: warning
|
272 |
+
- `log_on_each_node`: True
|
273 |
+
- `logging_nan_inf_filter`: True
|
274 |
+
- `save_safetensors`: True
|
275 |
+
- `save_on_each_node`: False
|
276 |
+
- `save_only_model`: False
|
277 |
+
- `no_cuda`: False
|
278 |
+
- `use_cpu`: False
|
279 |
+
- `use_mps_device`: False
|
280 |
+
- `seed`: 42
|
281 |
+
- `data_seed`: None
|
282 |
+
- `jit_mode_eval`: False
|
283 |
+
- `use_ipex`: False
|
284 |
+
- `bf16`: False
|
285 |
+
- `fp16`: False
|
286 |
+
- `fp16_opt_level`: O1
|
287 |
+
- `half_precision_backend`: auto
|
288 |
+
- `bf16_full_eval`: False
|
289 |
+
- `fp16_full_eval`: False
|
290 |
+
- `tf32`: None
|
291 |
+
- `local_rank`: 0
|
292 |
+
- `ddp_backend`: None
|
293 |
+
- `tpu_num_cores`: None
|
294 |
+
- `tpu_metrics_debug`: False
|
295 |
+
- `debug`: []
|
296 |
+
- `dataloader_drop_last`: False
|
297 |
+
- `dataloader_num_workers`: 0
|
298 |
+
- `dataloader_prefetch_factor`: None
|
299 |
+
- `past_index`: -1
|
300 |
+
- `disable_tqdm`: False
|
301 |
+
- `remove_unused_columns`: True
|
302 |
+
- `label_names`: None
|
303 |
+
- `load_best_model_at_end`: False
|
304 |
+
- `ignore_data_skip`: False
|
305 |
+
- `fsdp`: []
|
306 |
+
- `fsdp_min_num_params`: 0
|
307 |
+
- `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
|
308 |
+
- `fsdp_transformer_layer_cls_to_wrap`: None
|
309 |
+
- `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True}
|
310 |
+
- `deepspeed`: None
|
311 |
+
- `label_smoothing_factor`: 0.0
|
312 |
+
- `optim`: adamw_torch
|
313 |
+
- `optim_args`: None
|
314 |
+
- `adafactor`: False
|
315 |
+
- `group_by_length`: False
|
316 |
+
- `length_column_name`: length
|
317 |
+
- `ddp_find_unused_parameters`: None
|
318 |
+
- `ddp_bucket_cap_mb`: None
|
319 |
+
- `ddp_broadcast_buffers`: False
|
320 |
+
- `dataloader_pin_memory`: True
|
321 |
+
- `dataloader_persistent_workers`: False
|
322 |
+
- `skip_memory_metrics`: True
|
323 |
+
- `use_legacy_prediction_loop`: False
|
324 |
+
- `push_to_hub`: False
|
325 |
+
- `resume_from_checkpoint`: None
|
326 |
+
- `hub_model_id`: None
|
327 |
+
- `hub_strategy`: every_save
|
328 |
+
- `hub_private_repo`: False
|
329 |
+
- `hub_always_push`: False
|
330 |
+
- `gradient_checkpointing`: False
|
331 |
+
- `gradient_checkpointing_kwargs`: None
|
332 |
+
- `include_inputs_for_metrics`: False
|
333 |
+
- `fp16_backend`: auto
|
334 |
+
- `push_to_hub_model_id`: None
|
335 |
+
- `push_to_hub_organization`: None
|
336 |
+
- `mp_parameters`:
|
337 |
+
- `auto_find_batch_size`: False
|
338 |
+
- `full_determinism`: False
|
339 |
+
- `torchdynamo`: None
|
340 |
+
- `ray_scope`: last
|
341 |
+
- `ddp_timeout`: 1800
|
342 |
+
- `torch_compile`: False
|
343 |
+
- `torch_compile_backend`: None
|
344 |
+
- `torch_compile_mode`: None
|
345 |
+
- `dispatch_batches`: None
|
346 |
+
- `split_batches`: None
|
347 |
+
- `include_tokens_per_second`: False
|
348 |
+
- `include_num_input_tokens_seen`: False
|
349 |
+
- `neftune_noise_alpha`: None
|
350 |
+
- `optim_target_modules`: None
|
351 |
+
- `batch_sampler`: batch_sampler
|
352 |
+
- `multi_dataset_batch_sampler`: round_robin
|
353 |
+
|
354 |
+
</details>
|
355 |
+
|
356 |
+
### Training Logs
|
357 |
+
| Epoch | Step | Training Loss | spearman_max |
|
358 |
+
|:------:|:-----:|:-------------:|:------------:|
|
359 |
+
| 0.2045 | 500 | 0.0352 | - |
|
360 |
+
| 0.4090 | 1000 | 0.0208 | 0.8642 |
|
361 |
+
| 0.6135 | 1500 | 0.0181 | - |
|
362 |
+
| 0.8180 | 2000 | 0.0171 | 0.8645 |
|
363 |
+
| 1.0 | 2445 | - | 0.8645 |
|
364 |
+
| 1.0225 | 2500 | 0.0148 | - |
|
365 |
+
| 1.2270 | 3000 | 0.012 | 0.8648 |
|
366 |
+
| 1.4315 | 3500 | 0.0105 | - |
|
367 |
+
| 1.6360 | 4000 | 0.0093 | 0.8646 |
|
368 |
+
| 1.8405 | 4500 | 0.0092 | - |
|
369 |
+
| 2.0 | 4890 | - | 0.8646 |
|
370 |
+
| 2.0450 | 5000 | 0.0082 | 0.8647 |
|
371 |
+
| 2.2495 | 5500 | 0.0069 | - |
|
372 |
+
| 2.4540 | 6000 | 0.0062 | 0.8644 |
|
373 |
+
| 2.6585 | 6500 | 0.0058 | - |
|
374 |
+
| 2.8630 | 7000 | 0.0056 | 0.8646 |
|
375 |
+
| 3.0 | 7335 | - | 0.8644 |
|
376 |
+
| 3.0675 | 7500 | 0.0048 | - |
|
377 |
+
| 3.2720 | 8000 | 0.0046 | 0.8646 |
|
378 |
+
| 3.4765 | 8500 | 0.0039 | - |
|
379 |
+
| 3.6810 | 9000 | 0.0039 | 0.8645 |
|
380 |
+
| 3.8855 | 9500 | 0.0034 | - |
|
381 |
+
| 4.0 | 9780 | - | 0.8643 |
|
382 |
+
| 4.0900 | 10000 | 0.0033 | 0.8644 |
|
383 |
+
| 4.2945 | 10500 | 0.003 | - |
|
384 |
+
| 4.4990 | 11000 | 0.0028 | 0.8644 |
|
385 |
+
| 4.7035 | 11500 | 0.0029 | - |
|
386 |
+
| 4.9080 | 12000 | 0.0025 | 0.8645 |
|
387 |
+
| 5.0 | 12225 | - | 0.8645 |
|
388 |
+
|
389 |
+
|
390 |
+
### Framework Versions
|
391 |
+
- Python: 3.10.13
|
392 |
+
- Sentence Transformers: 3.0.0
|
393 |
+
- Transformers: 4.39.3
|
394 |
+
- PyTorch: 2.1.2
|
395 |
+
- Accelerate: 0.29.3
|
396 |
+
- Datasets: 2.18.0
|
397 |
+
- Tokenizers: 0.15.2
|
398 |
+
|
399 |
+
## Citation
|
400 |
+
|
401 |
+
### BibTeX
|
402 |
+
|
403 |
+
#### Sentence Transformers
|
404 |
+
```bibtex
|
405 |
+
@inproceedings{reimers-2019-sentence-bert,
|
406 |
+
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
|
407 |
+
author = "Reimers, Nils and Gurevych, Iryna",
|
408 |
+
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
|
409 |
+
month = "11",
|
410 |
+
year = "2019",
|
411 |
+
publisher = "Association for Computational Linguistics",
|
412 |
+
url = "https://arxiv.org/abs/1908.10084",
|
413 |
+
}
|
414 |
+
```
|
415 |
+
|
416 |
+
<!--
|
417 |
+
## Glossary
|
418 |
+
|
419 |
+
*Clearly define terms in order to be accessible across audiences.*
|
420 |
+
-->
|
421 |
+
|
422 |
+
<!--
|
423 |
+
## Model Card Authors
|
424 |
+
|
425 |
+
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
|
426 |
+
-->
|
427 |
+
|
428 |
+
<!--
|
429 |
+
## Model Card Contact
|
430 |
+
|
431 |
+
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
|
432 |
+
-->
|
tokenizer.json
ADDED
@@ -0,0 +1,3 @@
|
|
|
|
|
|
|
|
|
1 |
+
version https://git-lfs.github.com/spec/v1
|
2 |
+
oid sha256:3b4e156de3d5b4a567a40f9f72d44772f9899967b9b59557d6348ae3d48e60bc
|
3 |
+
size 17083009
|