Edit model card

SentenceTransformer based on comet24082002/finetune_bge_simsce_V1

This is a sentence-transformers model finetuned from comet24082002/finetune_bge_simsce_V1. It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

Model Details

Model Description

  • Model Type: Sentence Transformer
  • Base model: comet24082002/finetune_bge_simsce_V1
  • Maximum Sequence Length: 512 tokens
  • Output Dimensionality: 1024 tokens
  • Similarity Function: Cosine Similarity

Model Sources

Full Model Architecture

SentenceTransformer(
  (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: XLMRobertaModel 
  (1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
  (2): Normalize()
)

Usage

Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

pip install -U sentence-transformers

Then you can load this model and run inference.

from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("comet24082002/ft_bge_newLaw_MultipleNegativeRankingLoss_SimSCE_V1_5epochs")
# Run inference
sentences = [
    'Đơn tố cáo nặc danh có được tiếp nhận xử lý không?',
    '1. Trước khi thụ lý tố cáo, người giải quyết tố cáo tự mình hoặc giao cơ quan thanh tra nhà nước cùng cấp hoặc cơ quan, tổ chức, cá nhân khác xác minh thông tin về người tố cáo và điều kiện thụ lý tố cáo. Trường hợp người tố cáo không cư trú tại địa bàn quản lý hoặc gặp khó khăn trong việc xác minh thì người giải quyết tố cáo có thể ủy quyền cho cơ quan nhà nước ngang cấp hoặc cơ quan nhà nước cấp dưới xác minh thông tin cần thiết phục vụ việc ra quyết định thụ lý tố cáo. Việc thụ lý tố cáo được thực hiện theo quy định tại Điều 29 Luật Tố cáo. Quyết định thụ lý tố cáo được thực hiện theo Mẫu số 04 tại Phụ lục ban hành kèm theo Nghị định này.\n2. Trong thời hạn 05 ngày làm việc kể từ ngày ra quyết định thụ lý tố cáo, người giải quyết tố cáo có trách nhiệm thông báo cho người tố cáo và thông báo về nội dung tố cáo cho người bị tố cáo biết. Thông báo việc thụ lý tố cáo được thực hiện theo Mẫu số 05, thông báo về nội dung tố cáo cho người bị tố cáo thực hiện theo Mẫu số 06 tại Phụ lục ban hành kèm theo Nghị định này.',
    'Chương trình, tài liệu đào tạo, bồi dưỡng\n...\n2. Chương trình, tài liệu bồi dưỡng:\na) Chương trình, tài liệu bồi dưỡng theo tiêu chuẩn ngạch công chức, thời gian thực hiện tối thiểu là 06 tuần, tối đa là 08 tuần, bao gồm:\n- Chương trình bồi dưỡng ngạch cán sự và tương đương;\n- Chương trình bồi dưỡng các ngạch: chuyên viên và tương đương; chuyên viên chính và tương đương; chuyên viên cao cấp và tương đương.\nb) Chương trình, tài liệu bồi dưỡng theo tiêu chuẩn chức vụ cán bộ lãnh đạo, quản lý, thời gian thực hiện tối thiểu là 02 tuần, tối đa là 04 tuần, bao gồm:\n- Chương trình bồi dưỡng lãnh đạo cấp phòng và tương đương;\n- Chương trình bồi dưỡng lãnh đạo VKSND cấp huyện và tương đương;\n- Chương trình bồi dưỡng lãnh đạo VKSND cấp tỉnh, lãnh đạo cấp vụ và tương đương.\nc) Chương trình, tài liệu bồi dưỡng theo yêu cầu của vị trí việc làm, kiến thức, kỹ năng chuyên ngành, thời gian thực hiện tối đa là 01 tuần.\nd) Đối với việc bồi dưỡng lãnh đạo VKSND tối cao và các chương trình bồi dưỡng khác (bao gồm bồi dưỡng viên chức) thực hiện theo quy định của Đảng và Nhà nước.',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 1024]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]

Training Details

Training Dataset

Unnamed Dataset

  • Size: 10,524 training samples
  • Columns: anchor and positive
  • Approximate statistics based on the first 1000 samples:
    anchor positive
    type string string
    details
    • min: 8 tokens
    • mean: 24.26 tokens
    • max: 52 tokens
    • min: 18 tokens
    • mean: 266.55 tokens
    • max: 512 tokens
  • Samples:
    anchor positive
    Phó trưởng phòng của một đơn vị sự nghiệp công lập có được bổ nhiệm làm kế toán trưởng tại đơn vị mình đang công tác không? “Điều 52. Những người không được làm kế toán
    1. Người chưa thành niên; người bị Tòa án tuyên bố hạn chế hoặc mất năng lực hành vi dân sự; người đang phải chấp hành biện pháp đưa vào cơ sở giáo dục bắt buộc, cơ sở cai nghiện bắt buộc.
    2. Người đang bị cấm hành nghề kế toán theo bản án hoặc quyết định của Tòa án đã có hiệu lực pháp luật; người đang bị truy cứu trách nhiệm hình sự; người đang phải chấp hành hình phạt tù hoặc đã bị kết án về một trong các tội xâm phạm trật tự quản lý kinh tế, tội phạm về chức vụ liên quan đến tài chính, kế toán mà chưa được xóa án tích.
    3. Cha đẻ, mẹ đẻ, cha nuôi, mẹ nuôi, vợ, chồng, con đẻ, con nuôi, anh, chị, em ruột của người đại diện theo pháp luật, của người đứng đầu, của giám đốc, tổng giám đốc và của cấp phó của người đứng đầu, phó giám đốc, phó tổng giám đốc phụ trách công tác tài chính - kế toán, kế toán trưởng trong cùng một đơn vị kế toán, trừ doanh nghiệp tư nhân, công ty trách nhiệm hữu hạn do một cá nhân làm chủ sở hữu và các trường hợp khác do Chính phủ quy định.
    4. Người đang là người quản lý, điều hành, thủ kho, thủ quỹ, người mua, bán tài sản trong cùng một đơn vị kế toán, trừ trong doanh nghiệp tư nhân, công ty trách nhiệm hữu hạn do một cá nhân làm chủ sở hữu và các trường hợp khác do Chính phủ quy định.”
    Có được hưởng cùng lúc trợ cấp thất nghiệp và bảo hiểm thai sản không? “Điều 31. Điều kiện hưởng chế độ thai sản
    1. Người lao động được hưởng chế độ thai sản khi thuộc một trong các trường hợp sau đây:
    a) Lao động nữ mang thai;
    b) Lao động nữ sinh con;
    c) Lao động nữ mang thai hộ và người mẹ nhờ mang thai hộ;
    d) Người lao động nhận nuôi con nuôi dưới 06 tháng tuổi;
    đ) Lao động nữ đặt vòng tránh thai, người lao động thực hiện biện pháp triệt sản;
    e) Lao động nam đang đóng bảo hiểm xã hội có vợ sinh con.
    2. Người lao động quy định tại các điểm b, c và d khoản 1 Điều này phải đóng bảo hiểm xã hội từ đủ 06 tháng trở lên trong thời gian 12 tháng trước khi sinh con hoặc nhận nuôi con nuôi.
    3. Người lao động quy định tại điểm b khoản 1 Điều này đã đóng bảo hiểm xã hội từ đủ 12 tháng trở lên mà khi mang thai phải nghỉ việc để dưỡng thai theo chỉ định của cơ sở khám bệnh, chữa bệnh có thẩm quyền thì phải đóng bảo hiểm xã hội từ đủ 03 tháng trở lên trong thời gian 12 tháng trước khi sinh con.
    4. Người lao động đủ điều kiện quy định tại khoản 2 và khoản 3 Điều này mà chấm dứt hợp đồng lao động, hợp đồng làm việc hoặc thôi việc trước thời điểm sinh con hoặc nhận con nuôi dưới 06 tháng tuổi thì vẫn được hưởng chế độ thai sản theo quy định tại các Điều 34, 36, 38 và khoản 1 Điều 39 của Luật này.”
    Viên chức cảng vụ hàng không phải đáp ứng những tiêu chuẩn nào? Cảng vụ viên hàng không hạng V - Mã số V.12.01.05
    ...
    2. Tiêu chuẩn về trình độ đào tạo, bồi dưỡng
    a) Có bằng tốt nghiệp trung cấp trở lên với ngành, chuyên ngành đào tạo phù hợp với vị trí việc làm;
    b) Có chứng chỉ bồi dưỡng theo tiêu chuẩn chức danh nghề nghiệp viên chức chuyên ngành cảng vụ hàng không.
    3. Tiêu chuẩn về năng lực chuyên môn, nghiệp vụ
    a) Nắm chắc các nguyên tắc và các hướng dẫn nghiệp vụ, quy trình tác nghiệp theo yêu cầu nhiệm vụ được giao;
    b) Có kỹ năng sử dụng công nghệ thông tin cơ bản và sử dụng được ngoại ngữ hoặc sử dụng được tiếng dân tộc thiểu số đối với viên chức công tác ở vùng dân tộc thiểu số theo yêu cầu của vị trí việc làm;
    c) Sử dụng thành thạo các phương tiện, thiết bị kỹ thuật phục vụ yêu cầu nhiệm vụ.
  • Loss: MultipleNegativesRankingLoss with these parameters:
    {
        "scale": 20.0,
        "similarity_fct": "cos_sim"
    }
    

Training Hyperparameters

Non-Default Hyperparameters

  • per_device_train_batch_size: 4
  • learning_rate: 2e-05
  • num_train_epochs: 5
  • warmup_ratio: 0.1

All Hyperparameters

Click to expand
  • overwrite_output_dir: False
  • do_predict: False
  • eval_strategy: no
  • prediction_loss_only: True
  • per_device_train_batch_size: 4
  • per_device_eval_batch_size: 8
  • per_gpu_train_batch_size: None
  • per_gpu_eval_batch_size: None
  • gradient_accumulation_steps: 1
  • eval_accumulation_steps: None
  • learning_rate: 2e-05
  • weight_decay: 0.0
  • adam_beta1: 0.9
  • adam_beta2: 0.999
  • adam_epsilon: 1e-08
  • max_grad_norm: 1.0
  • num_train_epochs: 5
  • max_steps: -1
  • lr_scheduler_type: linear
  • lr_scheduler_kwargs: {}
  • warmup_ratio: 0.1
  • warmup_steps: 0
  • log_level: passive
  • log_level_replica: warning
  • log_on_each_node: True
  • logging_nan_inf_filter: True
  • save_safetensors: True
  • save_on_each_node: False
  • save_only_model: False
  • restore_callback_states_from_checkpoint: False
  • no_cuda: False
  • use_cpu: False
  • use_mps_device: False
  • seed: 42
  • data_seed: None
  • jit_mode_eval: False
  • use_ipex: False
  • bf16: False
  • fp16: False
  • fp16_opt_level: O1
  • half_precision_backend: auto
  • bf16_full_eval: False
  • fp16_full_eval: False
  • tf32: None
  • local_rank: 0
  • ddp_backend: None
  • tpu_num_cores: None
  • tpu_metrics_debug: False
  • debug: []
  • dataloader_drop_last: False
  • dataloader_num_workers: 0
  • dataloader_prefetch_factor: None
  • past_index: -1
  • disable_tqdm: False
  • remove_unused_columns: True
  • label_names: None
  • load_best_model_at_end: False
  • ignore_data_skip: False
  • fsdp: []
  • fsdp_min_num_params: 0
  • fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
  • fsdp_transformer_layer_cls_to_wrap: None
  • accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
  • deepspeed: None
  • label_smoothing_factor: 0.0
  • optim: adamw_torch
  • optim_args: None
  • adafactor: False
  • group_by_length: False
  • length_column_name: length
  • ddp_find_unused_parameters: None
  • ddp_bucket_cap_mb: None
  • ddp_broadcast_buffers: False
  • dataloader_pin_memory: True
  • dataloader_persistent_workers: False
  • skip_memory_metrics: True
  • use_legacy_prediction_loop: False
  • push_to_hub: False
  • resume_from_checkpoint: None
  • hub_model_id: None
  • hub_strategy: every_save
  • hub_private_repo: False
  • hub_always_push: False
  • gradient_checkpointing: False
  • gradient_checkpointing_kwargs: None
  • include_inputs_for_metrics: False
  • eval_do_concat_batches: True
  • fp16_backend: auto
  • push_to_hub_model_id: None
  • push_to_hub_organization: None
  • mp_parameters:
  • auto_find_batch_size: False
  • full_determinism: False
  • torchdynamo: None
  • ray_scope: last
  • ddp_timeout: 1800
  • torch_compile: False
  • torch_compile_backend: None
  • torch_compile_mode: None
  • dispatch_batches: None
  • split_batches: None
  • include_tokens_per_second: False
  • include_num_input_tokens_seen: False
  • neftune_noise_alpha: None
  • optim_target_modules: None
  • batch_eval_metrics: False
  • batch_sampler: batch_sampler
  • multi_dataset_batch_sampler: proportional

Training Logs

Click to expand
Epoch Step Training Loss
0.0190 50 0.123
0.0380 100 0.1534
0.0570 150 0.0364
0.0760 200 0.0487
0.0950 250 0.0341
0.1140 300 0.0303
0.1330 350 0.0091
0.1520 400 0.0194
0.1710 450 0.0113
0.1900 500 0.0252
0.2090 550 0.0138
0.2281 600 0.0155
0.2471 650 0.0274
0.2661 700 0.0324
0.2851 750 0.0071
0.3041 800 0.0135
0.3231 850 0.0274
0.3421 900 0.0067
0.3611 950 0.0095
0.3801 1000 0.0218
0.3991 1050 0.0292
0.4181 1100 0.0041
0.4371 1150 0.0072
0.4561 1200 0.0051
0.4751 1250 0.004
0.4941 1300 0.0043
0.5131 1350 0.0067
0.5321 1400 0.0089
0.5511 1450 0.0281
0.5701 1500 0.0186
0.5891 1550 0.0316
0.6081 1600 0.0046
0.6271 1650 0.0331
0.6461 1700 0.018
0.6651 1750 0.0097
0.6842 1800 0.0629
0.7032 1850 0.0388
0.7222 1900 0.0084
0.7412 1950 0.0312
0.7602 2000 0.0409
0.7792 2050 0.0236
0.7982 2100 0.0248
0.8172 2150 0.0287
0.8362 2200 0.0564
0.8552 2250 0.0381
0.8742 2300 0.013
0.8932 2350 0.0213
0.9122 2400 0.009
0.9312 2450 0.0105
0.9502 2500 0.0369
0.9692 2550 0.0545
0.9882 2600 0.0473
1.0072 2650 0.0475
1.0262 2700 0.0069
1.0452 2750 0.002
1.0642 2800 0.011
1.0832 2850 0.0061
1.1022 2900 0.009
1.1212 2950 0.007
1.1403 3000 0.006
1.1593 3050 0.0037
1.1783 3100 0.0185
1.1973 3150 0.0071
1.2163 3200 0.0049
1.2353 3250 0.0094
1.2543 3300 0.0079
1.2733 3350 0.0084
1.2923 3400 0.0053
1.3113 3450 0.0019
1.3303 3500 0.0259
1.3493 3550 0.0022
1.3683 3600 0.0131
1.3873 3650 0.0266
1.4063 3700 0.0321
1.4253 3750 0.0168
1.4443 3800 0.0498
1.4633 3850 0.0075
1.4823 3900 0.0026
1.5013 3950 0.001
1.5203 4000 0.0344
1.5393 4050 0.0081
1.5583 4100 0.0049
1.5773 4150 0.0102
1.5964 4200 0.0129
1.6154 4250 0.0061
1.6344 4300 0.0028
1.6534 4350 0.0134
1.6724 4400 0.0075
1.6914 4450 0.0229
1.7104 4500 0.0051
1.7294 4550 0.002
1.7484 4600 0.0054
1.7674 4650 0.0128
1.7864 4700 0.0022
1.8054 4750 0.0009
1.8244 4800 0.0102
1.8434 4850 0.0066
1.8624 4900 0.003
1.8814 4950 0.0031
1.9004 5000 0.0013
1.9194 5050 0.0029
1.9384 5100 0.0396
1.9574 5150 0.0054
1.9764 5200 0.0054
1.9954 5250 0.015
2.0144 5300 0.0045
2.0334 5350 0.0027
2.0525 5400 0.0037
2.0715 5450 0.0049
2.0905 5500 0.0016
2.1095 5550 0.0009
2.1285 5600 0.0012
2.1475 5650 0.002
2.1665 5700 0.0078
2.1855 5750 0.0255
2.2045 5800 0.0277
2.2235 5850 0.0012
2.2425 5900 0.0012
2.2615 5950 0.0014
2.2805 6000 0.0013
2.2995 6050 0.0047
2.3185 6100 0.0013
2.3375 6150 0.0076
2.3565 6200 0.009
2.3755 6250 0.0007
2.3945 6300 0.0087
2.4135 6350 0.0002
2.4325 6400 0.0017
2.4515 6450 0.0106
2.4705 6500 0.0016
2.4895 6550 0.0011
2.5086 6600 0.0024
2.5276 6650 0.0092
2.5466 6700 0.0012
2.5656 6750 0.0143
2.5846 6800 0.0015
2.6036 6850 0.0008
2.6226 6900 0.0149
2.6416 6950 0.0058
2.6606 7000 0.0227
2.6796 7050 0.0004
2.6986 7100 0.0066
2.7176 7150 0.0059
2.7366 7200 0.0011
2.7556 7250 0.0323
2.7746 7300 0.0016
2.7936 7350 0.0023
2.8126 7400 0.0107
2.8316 7450 0.0015
2.8506 7500 0.0023
2.8696 7550 0.0058
2.8886 7600 0.0004
2.9076 7650 0.0103
2.9266 7700 0.0005
2.9456 7750 0.0013
2.9647 7800 0.0004
2.9837 7850 0.0018
3.0027 7900 0.0016
3.0217 7950 0.0034
3.0407 8000 0.0012
3.0597 8050 0.0046
3.0787 8100 0.001
3.0977 8150 0.0005
3.1167 8200 0.0037
3.1357 8250 0.0046
3.1547 8300 0.0013
3.1737 8350 0.0011
3.1927 8400 0.0107
3.2117 8450 0.0012
3.2307 8500 0.0025
3.2497 8550 0.0018
3.2687 8600 0.0005
3.2877 8650 0.0051
3.3067 8700 0.0006
3.3257 8750 0.0004
3.3447 8800 0.003
3.3637 8850 0.0055
3.3827 8900 0.015
3.4017 8950 0.016
3.4208 9000 0.0008
3.4398 9050 0.0006
3.4588 9100 0.0004
3.4778 9150 0.0008
3.4968 9200 0.0167
3.5158 9250 0.0004
3.5348 9300 0.0051
3.5538 9350 0.0093
3.5728 9400 0.0004
3.5918 9450 0.003
3.6108 9500 0.0005
3.6298 9550 0.0006
3.6488 9600 0.0073
3.6678 9650 0.0021
3.6868 9700 0.0019
3.7058 9750 0.0013
3.7248 9800 0.0005
3.7438 9850 0.0005
3.7628 9900 0.0011
3.7818 9950 0.0007
3.8008 10000 0.0081
3.8198 10050 0.0017
3.8388 10100 0.0154
3.8578 10150 0.0035
3.8769 10200 0.0023
3.8959 10250 0.0007
3.9149 10300 0.0143
3.9339 10350 0.0005
3.9529 10400 0.0002
3.9719 10450 0.0103
3.9909 10500 0.0019
4.0099 10550 0.0008
4.0289 10600 0.0066
4.0479 10650 0.0002
4.0669 10700 0.0067
4.0859 10750 0.0009
4.1049 10800 0.003
4.1239 10850 0.0001
4.1429 10900 0.0016
4.1619 10950 0.0005
4.1809 11000 0.0249
4.1999 11050 0.0379
4.2189 11100 0.0106
4.2379 11150 0.0015
4.2569 11200 0.0003
4.2759 11250 0.0004
4.2949 11300 0.0026
4.3139 11350 0.0003
4.3330 11400 0.0001
4.3520 11450 0.0002
4.3710 11500 0.0004
4.3900 11550 0.0003
4.4090 11600 0.0042
4.4280 11650 0.0037
4.4470 11700 0.0046
4.4660 11750 0.0013
4.4850 11800 0.0003
4.5040 11850 0.0003
4.5230 11900 0.0019
4.5420 11950 0.0002
4.5610 12000 0.0019
4.5800 12050 0.0003
4.5990 12100 0.0002
4.6180 12150 0.0009
4.6370 12200 0.0007
4.6560 12250 0.0051
4.6750 12300 0.0003
4.6940 12350 0.0031
4.7130 12400 0.0002
4.7320 12450 0.0018
4.7510 12500 0.0003
4.7700 12550 0.0004
4.7891 12600 0.0017
4.8081 12650 0.0042
4.8271 12700 0.0022
4.8461 12750 0.0082
4.8651 12800 0.0017
4.8841 12850 0.0042
4.9031 12900 0.0005
4.9221 12950 0.0002
4.9411 13000 0.0061
4.9601 13050 0.0011
4.9791 13100 0.0003
4.9981 13150 0.0016

Framework Versions

  • Python: 3.10.13
  • Sentence Transformers: 3.0.1
  • Transformers: 4.41.2
  • PyTorch: 2.1.2
  • Accelerate: 0.30.1
  • Datasets: 2.19.2
  • Tokenizers: 0.19.1

Citation

BibTeX

Sentence Transformers

@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}

MultipleNegativesRankingLoss

@misc{henderson2017efficient,
    title={Efficient Natural Language Response Suggestion for Smart Reply}, 
    author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
    year={2017},
    eprint={1705.00652},
    archivePrefix={arXiv},
    primaryClass={cs.CL}
}
Downloads last month
2
Safetensors
Model size
568M params
Tensor type
F32
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Model tree for comet24082002/ft_bge_newLaw_MultipleNegativeRankingLoss_SimSCE_V1_5epochs

Finetuned
(6)
this model