Edit model card

SentenceTransformer based on snunlp/KR-Medium-extended

This is a sentence-transformers model finetuned from snunlp/KR-Medium-extended on the korpat-triplet dataset. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.

Model Details

Model Description

  • Model Type: Sentence Transformer
  • Base model: snunlp/KR-Medium-extended
  • Maximum Sequence Length: 512 tokens
  • Output Dimensionality: 768 tokens
  • Similarity Function: Cosine Similarity
  • Training Dataset:
    • korpat-triplet

Model Sources

Full Model Architecture

SentenceTransformer(
  (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: BertModel 
  (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
)

Usage

Direct Usage (Sentence Transformers)

First install the Sentence Transformers library:

pip install -U sentence-transformers

Then you can load this model and run inference.

from sentence_transformers import SentenceTransformer

# Download from the 🤗 Hub
model = SentenceTransformer("snunlp/KR-SBERT-Medium-extended-patent2024-hn")
# Run inference
sentences = [
    '본 발명은 유출유 회수 장치에 관한 것으로, 보다 상세하게는 탈부착 가능한 구조의 유출유 흡착부를 통해 각 해상 환경 조건 및 유출유의 종류에 적합한 유출유 회수를 진행할 수 있도록 하는 유출유 회수 장치에 관한 것이다.',
    '본 발명의 일 실시예에 따른 유출유 회수 장치는, 해상에 부유하도록 부력을 제공하고 해수와 유출유가 혼합된 유수를 해수와 유출유로 각각 분리하도록 구비되는 몸체부; 및 상기 몸체부와 연결되어 회수된 유출유를 저장하는 저장 몸체가 구성되는 유출유 저장부;를 포함하며, 상기 몸체부는, 해상의 유수가 유입되도록 상기 몸체부의 일단에 소정 영역의 공간을 형성하는 유수 유입부; 상기 유수 유입부와 연통되어 유입된 유수의 유출유를 분리하도록 구비되는 유출유 분리부; 및 상기 유출유 분리부로부터 분리된 기름을 전달받아 상기 유출유 저장부로 이송하도록 구비되는 유출유 임시저장부;를 포함하는 것을 특징으로 한다.',
    '본 발명에서 복수의 유통경로 중 특정 유통경로로 냉각매체가 통과되도록 하거나 또는 차단되도록 한다. 또한, 냉각매체의 유통에 따른 흐름을 이용하여 실링 성능이 향상되도록 하는 멀티웨이밸브 장치가 소개된다.',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]

# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]

Training Details

Training Dataset

korpat-triplet

  • Dataset: korpat-triplet
  • Size: 1,795,000 training samples
  • Columns: anchor, positive, and negative
  • Approximate statistics based on the first 1000 samples:
    anchor positive negative
    type string string string
    details
    • min: 5 tokens
    • mean: 42.64 tokens
    • max: 131 tokens
    • min: 14 tokens
    • mean: 172.32 tokens
    • max: 340 tokens
    • min: 3 tokens
    • mean: 99.52 tokens
    • max: 476 tokens
  • Samples:
    anchor positive negative
    본 개시는 스토리지 컨트롤러에 관한 것으로, 보다 상세하게는, 액티브 존 리프레시를 수행하는 스토리지 컨트롤러, 그것의 동작하는 방법, 및 그것을 포함하는 스토리지 장치의 동작하는 방법에 관한 것이다. 본 개시의 일 실시 예에 따른 스토리지 컨트롤러는 호스트 및 비-휘발성 메모리 장치와 통신한다. 스토리지 컨트롤러의 동작하는 방법은, 호스트로부터, 장치 오픈을 위한 제1 상태 천이 요청을 수신하는 단계, 제1 상태 천이 요청에 응답하여, 비-휘발성 메모리 장치의 제1 액티브 존 리프레시를 수행하는 단계로서, 비-휘발성 메모리 장치의 복수의 존들 중에서, 직전 파워-오프 전에 액티브 상태를 갖는 존은 하나의 블록에서 순차적으로 쓰기 가능하도록 처리되는 것, 제1 액티브 존 리프레시를 수행한 후, 제1 버퍼 메모리에 의해, 제1 쓰기 요청에 따라 호스트로부터 복수의 존들 중 제1 존의 제1 블록에 저장될 제1 타겟 데이터를 수신하는 단계, 제1 쓰기 요청을 처리하는 동안, 호스트로부터 제1 파워-오프 요청을 수신하는 단계, 및 제1 파워-오프 요청에 기초하여 제1 블록 대신 비-휘발성 메모리 장치의 제1 PLP(power loss protection) 블록에 제1 타겟 데이터를 저장하는 단계를 포함한다. 본 발명에 따른 영상 제작 서비스 중개 시스템은, 크롤링 모듈부를 포함하고, 동영상 콘텐츠 플랫폼과 연동하여 복수의 크리에이터에 대한 데이터를 수집하는 크리에이터 데이터 수집부; 의뢰인의 홍보영상제작 의뢰에 대한 정보를 입력받는 의뢰인 단말 연동부; 복수의 크리에이터에 대한 데이터를 기반으로 홍보영상제작 예상단가에 대한 정보를 산출하는 홍보영상제작 예상단가 산출부; 홍보영상제작 의뢰에 대한 정보와 예상단가에 대한 정보를 기반으로 의뢰인과 복수의 크리에이터의 매칭률을 산출하는 매칭률 산출부; 및 의뢰인에 대한 정보를 산출하는 정보제공부를 포함한다.
    본 개시는 스토리지 컨트롤러에 관한 것으로, 보다 상세하게는, 액티브 존 리프레시를 수행하는 스토리지 컨트롤러, 그것의 동작하는 방법, 및 그것을 포함하는 스토리지 장치의 동작하는 방법에 관한 것이다. 본 개시의 일 실시 예에 따른 스토리지 컨트롤러는 호스트 및 비-휘발성 메모리 장치와 통신한다. 스토리지 컨트롤러의 동작하는 방법은, 호스트로부터, 장치 오픈을 위한 제1 상태 천이 요청을 수신하는 단계, 제1 상태 천이 요청에 응답하여, 비-휘발성 메모리 장치의 제1 액티브 존 리프레시를 수행하는 단계로서, 비-휘발성 메모리 장치의 복수의 존들 중에서, 직전 파워-오프 전에 액티브 상태를 갖는 존은 하나의 블록에서 순차적으로 쓰기 가능하도록 처리되는 것, 제1 액티브 존 리프레시를 수행한 후, 제1 버퍼 메모리에 의해, 제1 쓰기 요청에 따라 호스트로부터 복수의 존들 중 제1 존의 제1 블록에 저장될 제1 타겟 데이터를 수신하는 단계, 제1 쓰기 요청을 처리하는 동안, 호스트로부터 제1 파워-오프 요청을 수신하는 단계, 및 제1 파워-오프 요청에 기초하여 제1 블록 대신 비-휘발성 메모리 장치의 제1 PLP(power loss protection) 블록에 제1 타겟 데이터를 저장하는 단계를 포함한다. 케이블받침부재 보수용 리프팅장치에 대한 발명이 개시된다. 개시된 케이블받침부재 보수용 리프팅장치는, 내부에 수용공간을 형성하고, 전력구의 벽면에 다수개 층으로 구비된 케이블이 안착되는 케이블받침부재를 결합하는 지지대에 설치되는 하우징과, 하우징의 내부에서 연통공을 통해 하부로 연장되는 한 쌍의 줄부재와, 줄부재 각각이 양측에 연결되는 서포트부재와, 하우징에 구비되고, 케이블받침부재를 보수하도록 줄부재 각각을 하우징의 내부로 당기거나 풀어주어 서포트부재를 통해 상기 케이블을 승강하는 승강작동부를 포함하는 것을 특징으로 한다.
    본 개시는 스토리지 컨트롤러에 관한 것으로, 보다 상세하게는, 액티브 존 리프레시를 수행하는 스토리지 컨트롤러, 그것의 동작하는 방법, 및 그것을 포함하는 스토리지 장치의 동작하는 방법에 관한 것이다. 본 개시의 일 실시 예에 따른 스토리지 컨트롤러는 호스트 및 비-휘발성 메모리 장치와 통신한다. 스토리지 컨트롤러의 동작하는 방법은, 호스트로부터, 장치 오픈을 위한 제1 상태 천이 요청을 수신하는 단계, 제1 상태 천이 요청에 응답하여, 비-휘발성 메모리 장치의 제1 액티브 존 리프레시를 수행하는 단계로서, 비-휘발성 메모리 장치의 복수의 존들 중에서, 직전 파워-오프 전에 액티브 상태를 갖는 존은 하나의 블록에서 순차적으로 쓰기 가능하도록 처리되는 것, 제1 액티브 존 리프레시를 수행한 후, 제1 버퍼 메모리에 의해, 제1 쓰기 요청에 따라 호스트로부터 복수의 존들 중 제1 존의 제1 블록에 저장될 제1 타겟 데이터를 수신하는 단계, 제1 쓰기 요청을 처리하는 동안, 호스트로부터 제1 파워-오프 요청을 수신하는 단계, 및 제1 파워-오프 요청에 기초하여 제1 블록 대신 비-휘발성 메모리 장치의 제1 PLP(power loss protection) 블록에 제1 타겟 데이터를 저장하는 단계를 포함한다. 본 개시는 위치 정보 기반으로 설계 도면의 정보를 자동으로 연결하는 장치에 관한 것으로, 도곽 내에 복수 개의 설계 도면이 포함되어 있는 경우, 설계 도면이 도면명을 포함하되 다른 설계 도면과 중첩되지 않도록 바운더리를 설정하여 복수 개의 설계 도면을 추출할 수 있다.
  • Loss: MultipleNegativesRankingLoss with these parameters:
    {
        "scale": 20.0,
        "similarity_fct": "cos_sim"
    }
    

Training Hyperparameters

Non-Default Hyperparameters

  • per_device_train_batch_size: 128
  • per_device_eval_batch_size: 128
  • warmup_ratio: 0.1
  • fp16: True

All Hyperparameters

Click to expand
  • overwrite_output_dir: False
  • do_predict: False
  • eval_strategy: no
  • prediction_loss_only: True
  • per_device_train_batch_size: 128
  • per_device_eval_batch_size: 128
  • per_gpu_train_batch_size: None
  • per_gpu_eval_batch_size: None
  • gradient_accumulation_steps: 1
  • eval_accumulation_steps: None
  • torch_empty_cache_steps: None
  • learning_rate: 5e-05
  • weight_decay: 0.0
  • adam_beta1: 0.9
  • adam_beta2: 0.999
  • adam_epsilon: 1e-08
  • max_grad_norm: 1.0
  • num_train_epochs: 3
  • max_steps: -1
  • lr_scheduler_type: linear
  • lr_scheduler_kwargs: {}
  • warmup_ratio: 0.1
  • warmup_steps: 0
  • log_level: passive
  • log_level_replica: warning
  • log_on_each_node: True
  • logging_nan_inf_filter: True
  • save_safetensors: True
  • save_on_each_node: False
  • save_only_model: False
  • restore_callback_states_from_checkpoint: False
  • no_cuda: False
  • use_cpu: False
  • use_mps_device: False
  • seed: 42
  • data_seed: None
  • jit_mode_eval: False
  • use_ipex: False
  • bf16: False
  • fp16: True
  • fp16_opt_level: O1
  • half_precision_backend: auto
  • bf16_full_eval: False
  • fp16_full_eval: False
  • tf32: None
  • local_rank: 0
  • ddp_backend: None
  • tpu_num_cores: None
  • tpu_metrics_debug: False
  • debug: []
  • dataloader_drop_last: False
  • dataloader_num_workers: 0
  • dataloader_prefetch_factor: None
  • past_index: -1
  • disable_tqdm: False
  • remove_unused_columns: True
  • label_names: None
  • load_best_model_at_end: False
  • ignore_data_skip: False
  • fsdp: []
  • fsdp_min_num_params: 0
  • fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
  • fsdp_transformer_layer_cls_to_wrap: None
  • accelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
  • deepspeed: None
  • label_smoothing_factor: 0.0
  • optim: adamw_torch
  • optim_args: None
  • adafactor: False
  • group_by_length: False
  • length_column_name: length
  • ddp_find_unused_parameters: None
  • ddp_bucket_cap_mb: None
  • ddp_broadcast_buffers: False
  • dataloader_pin_memory: True
  • dataloader_persistent_workers: False
  • skip_memory_metrics: True
  • use_legacy_prediction_loop: False
  • push_to_hub: False
  • resume_from_checkpoint: None
  • hub_model_id: None
  • hub_strategy: every_save
  • hub_private_repo: False
  • hub_always_push: False
  • gradient_checkpointing: False
  • gradient_checkpointing_kwargs: None
  • include_inputs_for_metrics: False
  • eval_do_concat_batches: True
  • fp16_backend: auto
  • push_to_hub_model_id: None
  • push_to_hub_organization: None
  • mp_parameters:
  • auto_find_batch_size: False
  • full_determinism: False
  • torchdynamo: None
  • ray_scope: last
  • ddp_timeout: 1800
  • torch_compile: False
  • torch_compile_backend: None
  • torch_compile_mode: None
  • dispatch_batches: None
  • split_batches: None
  • include_tokens_per_second: False
  • include_num_input_tokens_seen: False
  • neftune_noise_alpha: None
  • optim_target_modules: None
  • batch_eval_metrics: False
  • eval_on_start: False
  • eval_use_gather_object: False
  • batch_sampler: batch_sampler
  • multi_dataset_batch_sampler: proportional

Training Logs

Click to expand
Epoch Step Training Loss
0.0001 1 4.9371
0.0036 50 4.8797
0.0071 100 4.5211
0.0107 150 3.2534
0.0143 200 1.7617
0.0178 250 1.2062
0.0214 300 0.9218
0.0250 350 0.8051
0.0285 400 0.6901
0.0321 450 0.6763
0.0357 500 0.6257
0.0392 550 0.6111
0.0428 600 0.5817
0.0463 650 0.5253
0.0499 700 0.5526
0.0535 750 0.5102
0.0570 800 0.488
0.0606 850 0.4842
0.0642 900 0.4469
0.0677 950 0.4764
0.0713 1000 0.4221
0.0749 1050 0.4736
0.0784 1100 0.4277
0.0820 1150 0.4184
0.0856 1200 0.4452
0.0891 1250 0.4303
0.0927 1300 0.4072
0.0963 1350 0.4021
0.0998 1400 0.4339
0.1034 1450 0.3617
0.1070 1500 0.3604
0.1105 1550 0.3679
0.1141 1600 0.3796
0.1177 1650 0.3346
0.1212 1700 0.3515
0.1248 1750 0.3487
0.1284 1800 0.3383
0.1319 1850 0.3584
0.1355 1900 0.326
0.1390 1950 0.3206
0.1426 2000 0.3289
0.1462 2050 0.2964
0.1497 2100 0.3082
0.1533 2150 0.2872
0.1569 2200 0.2781
0.1604 2250 0.2867
0.1640 2300 0.2985
0.1676 2350 0.273
0.1711 2400 0.2716
0.1747 2450 0.2906
0.1783 2500 0.2785
0.1818 2550 0.2951
0.1854 2600 0.2877
0.1890 2650 0.2557
0.1925 2700 0.2763
0.1961 2750 0.2391
0.1997 2800 0.2417
0.2032 2850 0.2546
0.2068 2900 0.2633
0.2104 2950 0.2359
0.2139 3000 0.2289
0.2175 3050 0.2458
0.2210 3100 0.2458
0.2246 3150 0.2293
0.2282 3200 0.2399
0.2317 3250 0.2391
0.2353 3300 0.2186
0.2389 3350 0.2211
0.2424 3400 0.2225
0.2460 3450 0.2256
0.2496 3500 0.2078
0.2531 3550 0.1981
0.2567 3600 0.1952
0.2603 3650 0.1949
0.2638 3700 0.2009
0.2674 3750 0.1956
0.2710 3800 0.2027
0.2745 3850 0.2119
0.2781 3900 0.1918
0.2817 3950 0.197
0.2852 4000 0.1812
0.2888 4050 0.1791
0.2924 4100 0.174
0.2959 4150 0.1865
0.2995 4200 0.1833
0.3031 4250 0.1864
0.3066 4300 0.1684
0.3102 4350 0.176
0.3137 4400 0.1729
0.3173 4450 0.1691
0.3209 4500 0.164
0.3244 4550 0.1723
0.3280 4600 0.1693
0.3316 4650 0.1501
0.3351 4700 0.1599
0.3387 4750 0.1477
0.3423 4800 0.142
0.3458 4850 0.1511
0.3494 4900 0.1473
0.3530 4950 0.1495
0.3565 5000 0.1379
0.3601 5050 0.145
0.3637 5100 0.1496
0.3672 5150 0.1515
0.3708 5200 0.137
0.3744 5250 0.1386
0.3779 5300 0.1372
0.3815 5350 0.1294
0.3851 5400 0.1274
0.3886 5450 0.1382
0.3922 5500 0.1317
0.3958 5550 0.1253
0.3993 5600 0.1079
0.4029 5650 0.1208
0.4064 5700 0.129
0.4100 5750 0.1102
0.4136 5800 0.1084
0.4171 5850 0.1068
0.4207 5900 0.1166
0.4243 5950 0.1149
0.4278 6000 0.1064
0.4314 6050 0.1018
0.4350 6100 0.0986
0.4385 6150 0.1158
0.4421 6200 0.1048
0.4457 6250 0.1055
0.4492 6300 0.1065
0.4528 6350 0.1037
0.4564 6400 0.0931
0.4599 6450 0.0936
0.4635 6500 0.0981
0.4671 6550 0.1012
0.4706 6600 0.1034
0.4742 6650 0.1052
0.4778 6700 0.0898
0.4813 6750 0.0995
0.4849 6800 0.0887
0.4884 6850 0.0935
0.4920 6900 0.095
0.4956 6950 0.0959
0.4991 7000 0.0894
0.5027 7050 0.0897
0.5063 7100 0.0929
0.5098 7150 0.0926
0.5134 7200 0.0877
0.5170 7250 0.1034
0.5205 7300 0.0788
0.5241 7350 0.0875
0.5277 7400 0.0795
0.5312 7450 0.0886
0.5348 7500 0.0842
0.5384 7550 0.0833
0.5419 7600 0.0933
0.5455 7650 0.0867
0.5491 7700 0.0813
0.5526 7750 0.0888
0.5562 7800 0.0942
0.5598 7850 0.0828
0.5633 7900 0.0821
0.5669 7950 0.0792
0.5705 8000 0.0786
0.5740 8050 0.0817
0.5776 8100 0.0857
0.5811 8150 0.0781
0.5847 8200 0.0731
0.5883 8250 0.0813
0.5918 8300 0.075
0.5954 8350 0.0733
0.5990 8400 0.0733
0.6025 8450 0.0797
0.6061 8500 0.0893
0.6097 8550 0.0745
0.6132 8600 0.0658
0.6168 8650 0.0654
0.6204 8700 0.078
0.6239 8750 0.0759
0.6275 8800 0.077
0.6311 8850 0.0694
0.6346 8900 0.074
0.6382 8950 0.0675
0.6418 9000 0.0653
0.6453 9050 0.0772
0.6489 9100 0.0649
0.6525 9150 0.0749
0.6560 9200 0.0717
0.6596 9250 0.0743
0.6631 9300 0.0687
0.6667 9350 0.0703
0.6703 9400 0.0774
0.6738 9450 0.0747
0.6774 9500 0.0735
0.6810 9550 0.0744
0.6845 9600 0.0655
0.6881 9650 0.0561
0.6917 9700 0.0683
0.6952 9750 0.0693
0.6988 9800 0.0724
0.7024 9850 0.0676
0.7059 9900 0.066
0.7095 9950 0.0637
0.7131 10000 0.0725
0.7166 10050 0.0705
0.7202 10100 0.0696
0.7238 10150 0.0614
0.7273 10200 0.0643
0.7309 10250 0.0709
0.7345 10300 0.055
0.7380 10350 0.0636
0.7416 10400 0.0608
0.7452 10450 0.0593
0.7487 10500 0.0682
0.7523 10550 0.069
0.7558 10600 0.0568
0.7594 10650 0.0694
0.7630 10700 0.0631
0.7665 10750 0.0629
0.7701 10800 0.064
0.7737 10850 0.0638
0.7772 10900 0.0744
0.7808 10950 0.0602
0.7844 11000 0.0622
0.7879 11050 0.0627
0.7915 11100 0.0576
0.7951 11150 0.0518
0.7986 11200 0.067
0.8022 11250 0.0615
0.8058 11300 0.062
0.8093 11350 0.068
0.8129 11400 0.0723
0.8165 11450 0.0561
0.8200 11500 0.0586
0.8236 11550 0.062
0.8272 11600 0.061
0.8307 11650 0.066
0.8343 11700 0.0594
0.8378 11750 0.0561
0.8414 11800 0.0571
0.8450 11850 0.0605
0.8485 11900 0.0566
0.8521 11950 0.0534
0.8557 12000 0.0623
0.8592 12050 0.0553
0.8628 12100 0.0612
0.8664 12150 0.0532
0.8699 12200 0.0675
0.8735 12250 0.0524
0.8771 12300 0.0557
0.8806 12350 0.0659
0.8842 12400 0.061
0.8878 12450 0.0574
0.8913 12500 0.0588
0.8949 12550 0.0591
0.8985 12600 0.0562
0.9020 12650 0.0529
0.9056 12700 0.0577
0.9092 12750 0.0673
0.9127 12800 0.0641
0.9163 12850 0.0568
0.9199 12900 0.0526
0.9234 12950 0.0598
0.9270 13000 0.0585
0.9305 13050 0.0616
0.9341 13100 0.0522
0.9377 13150 0.0569
0.9412 13200 0.0623
0.9448 13250 0.0528
0.9484 13300 0.0538
0.9519 13350 0.0536
0.9555 13400 0.0678
0.9591 13450 0.0586
0.9626 13500 0.0629
0.9662 13550 0.05
0.9698 13600 0.0572
0.9733 13650 0.0544
0.9769 13700 0.0518
0.9805 13750 0.0457
0.9840 13800 0.0526
0.9876 13850 0.0513
0.9912 13900 0.0522
0.9947 13950 0.0523
0.9983 14000 0.0573
1.0019 14050 0.0557
1.0054 14100 0.0532
1.0090 14150 0.0589
1.0125 14200 0.0455
1.0161 14250 0.0629
1.0197 14300 0.0598
1.0232 14350 0.0543
1.0268 14400 0.054
1.0304 14450 0.054
1.0339 14500 0.0503
1.0375 14550 0.0561
1.0411 14600 0.0569
1.0446 14650 0.0458
1.0482 14700 0.0455
1.0518 14750 0.0589
1.0553 14800 0.0532
1.0589 14850 0.0527
1.0625 14900 0.0472
1.0660 14950 0.0573
1.0696 15000 0.0446
1.0732 15050 0.0502
1.0767 15100 0.0697
1.0803 15150 0.0489
1.0839 15200 0.0508
1.0874 15250 0.055
1.0910 15300 0.0548
1.0946 15350 0.0535
1.0981 15400 0.0609
1.1017 15450 0.0571
1.1052 15500 0.0554
1.1088 15550 0.0558
1.1124 15600 0.0523
1.1159 15650 0.0558
1.1195 15700 0.0474
1.1231 15750 0.0547
1.1266 15800 0.0539
1.1302 15850 0.0489
1.1338 15900 0.0523
1.1373 15950 0.0535
1.1409 16000 0.0554
1.1445 16050 0.0422
1.1480 16100 0.0561
1.1516 16150 0.0487
1.1552 16200 0.047
1.1587 16250 0.0447
1.1623 16300 0.0564
1.1659 16350 0.0539
1.1694 16400 0.0478
1.1730 16450 0.0418
1.1766 16500 0.0475
1.1801 16550 0.0558
1.1837 16600 0.0537
1.1873 16650 0.0539
1.1908 16700 0.0507
1.1944 16750 0.0551
1.1979 16800 0.0467
1.2015 16850 0.0437
1.2051 16900 0.0576
1.2086 16950 0.0547
1.2122 17000 0.0498
1.2158 17050 0.0495
1.2193 17100 0.0456
1.2229 17150 0.0514
1.2265 17200 0.0489
1.2300 17250 0.0456
1.2336 17300 0.0497
1.2372 17350 0.0452
1.2407 17400 0.0594
1.2443 17450 0.0431
1.2479 17500 0.0538
1.2514 17550 0.0421
1.2550 17600 0.0425
1.2586 17650 0.0451
1.2621 17700 0.0435
1.2657 17750 0.0499
1.2693 17800 0.0523
1.2728 17850 0.0525
1.2764 17900 0.0497
1.2799 17950 0.0591
1.2835 18000 0.0506
1.2871 18050 0.0469
1.2906 18100 0.0472
1.2942 18150 0.045
1.2978 18200 0.0539
1.3013 18250 0.0444
1.3049 18300 0.05
1.3085 18350 0.0494
1.3120 18400 0.0534
1.3156 18450 0.0526
1.3192 18500 0.0468
1.3227 18550 0.0558
1.3263 18600 0.0518
1.3299 18650 0.0447
1.3334 18700 0.049
1.3370 18750 0.05
1.3406 18800 0.0416
1.3441 18850 0.046
1.3477 18900 0.047
1.3513 18950 0.0423
1.3548 19000 0.0432
1.3584 19050 0.0498
1.3620 19100 0.0517
1.3655 19150 0.05
1.3691 19200 0.0388
1.3726 19250 0.0487
1.3762 19300 0.0508
1.3798 19350 0.0491
1.3833 19400 0.0484
1.3869 19450 0.0475
1.3905 19500 0.0478
1.3940 19550 0.0428
1.3976 19600 0.0467
1.4012 19650 0.0384
1.4047 19700 0.0526
1.4083 19750 0.0435
1.4119 19800 0.0455
1.4154 19850 0.0424
1.4190 19900 0.0503
1.4226 19950 0.0543
1.4261 20000 0.0418
1.4297 20050 0.05
1.4333 20100 0.0362
1.4368 20150 0.0466
1.4404 20200 0.0487
1.4440 20250 0.0458
1.4475 20300 0.0507
1.4511 20350 0.0425
1.4546 20400 0.0456
1.4582 20450 0.0422
1.4618 20500 0.0477
1.4653 20550 0.0427
1.4689 20600 0.0469
1.4725 20650 0.0501
1.4760 20700 0.0331
1.4796 20750 0.051
1.4832 20800 0.0401
1.4867 20850 0.0428
1.4903 20900 0.0473
1.4939 20950 0.0427
1.4974 21000 0.0469
1.5010 21050 0.0473
1.5046 21100 0.0402
1.5081 21150 0.0547
1.5117 21200 0.0379
1.5153 21250 0.0449
1.5188 21300 0.0479
1.5224 21350 0.0429
1.5260 21400 0.0409
1.5295 21450 0.0472
1.5331 21500 0.0385
1.5367 21550 0.0444
1.5402 21600 0.0515
1.5438 21650 0.0447
1.5473 21700 0.0438
1.5509 21750 0.0471
1.5545 21800 0.0486
1.5580 21850 0.0551
1.5616 21900 0.0465
1.5652 21950 0.0411
1.5687 22000 0.044
1.5723 22050 0.0464
1.5759 22100 0.0492
1.5794 22150 0.042
1.5830 22200 0.043
1.5866 22250 0.0418
1.5901 22300 0.0431
1.5937 22350 0.0481
1.5973 22400 0.0425
1.6008 22450 0.0385
1.6044 22500 0.0541
1.6080 22550 0.0485
1.6115 22600 0.046
1.6151 22650 0.0359
1.6187 22700 0.0453
1.6222 22750 0.0377
1.6258 22800 0.0459
1.6293 22850 0.0476
1.6329 22900 0.0368
1.6365 22950 0.0454
1.6400 23000 0.0348
1.6436 23050 0.0465
1.6472 23100 0.0461
1.6507 23150 0.035
1.6543 23200 0.0451
1.6579 23250 0.0435
1.6614 23300 0.0425
1.6650 23350 0.0448
1.6686 23400 0.0424
1.6721 23450 0.0547
1.6757 23500 0.0424
1.6793 23550 0.0506
1.6828 23600 0.0373
1.6864 23650 0.0362
1.6900 23700 0.0392
1.6935 23750 0.0385
1.6971 23800 0.0459
1.7007 23850 0.0445
1.7042 23900 0.044
1.7078 23950 0.0406
1.7114 24000 0.0416
1.7149 24050 0.0448
1.7185 24100 0.0427
1.7220 24150 0.0433
1.7256 24200 0.0391
1.7292 24250 0.0432
1.7327 24300 0.0382
1.7363 24350 0.0339
1.7399 24400 0.0356
1.7434 24450 0.0406
1.7470 24500 0.0428
1.7506 24550 0.0456
1.7541 24600 0.0479
1.7577 24650 0.0387
1.7613 24700 0.0457
1.7648 24750 0.0407
1.7684 24800 0.0411
1.7720 24850 0.0377
1.7755 24900 0.0418
1.7791 24950 0.0536
1.7827 25000 0.0382
1.7862 25050 0.0441
1.7898 25100 0.0417
1.7934 25150 0.032
1.7969 25200 0.0406
1.8005 25250 0.0413
1.8041 25300 0.0414
1.8076 25350 0.0532
1.8112 25400 0.0474
1.8147 25450 0.0358
1.8183 25500 0.0438
1.8219 25550 0.0403
1.8254 25600 0.042
1.8290 25650 0.0425
1.8326 25700 0.0424
1.8361 25750 0.0417
1.8397 25800 0.0453
1.8433 25850 0.0363
1.8468 25900 0.0367
1.8504 25950 0.042
1.8540 26000 0.0442
1.8575 26050 0.0341
1.8611 26100 0.0413
1.8647 26150 0.0468
1.8682 26200 0.0408
1.8718 26250 0.0434
1.8754 26300 0.04
1.8789 26350 0.038
1.8825 26400 0.0471
1.8861 26450 0.0441
1.8896 26500 0.0422
1.8932 26550 0.0377
1.8967 26600 0.0426
1.9003 26650 0.0435
1.9039 26700 0.0368
1.9074 26750 0.0431
1.9110 26800 0.0475
1.9146 26850 0.0456
1.9181 26900 0.0458
1.9217 26950 0.0357
1.9253 27000 0.0405
1.9288 27050 0.0466
1.9324 27100 0.0378
1.9360 27150 0.0396
1.9395 27200 0.0433
1.9431 27250 0.0396
1.9467 27300 0.0408
1.9502 27350 0.036
1.9538 27400 0.0487
1.9574 27450 0.046
1.9609 27500 0.0429
1.9645 27550 0.0441
1.9681 27600 0.0397
1.9716 27650 0.0416
1.9752 27700 0.0411
1.9788 27750 0.0356
1.9823 27800 0.0363
1.9859 27850 0.037
1.9894 27900 0.0367
1.9930 27950 0.0381
1.9966 28000 0.0434
2.0001 28050 0.0395
2.0037 28100 0.0412
2.0073 28150 0.0408
2.0108 28200 0.0379
2.0144 28250 0.0413
2.0180 28300 0.0456
2.0215 28350 0.0455
2.0251 28400 0.0412
2.0287 28450 0.0396
2.0322 28500 0.0394
2.0358 28550 0.0389
2.0394 28600 0.0501
2.0429 28650 0.0345
2.0465 28700 0.0348
2.0501 28750 0.0428
2.0536 28800 0.0401
2.0572 28850 0.038
2.0608 28900 0.0402
2.0643 28950 0.0348
2.0679 29000 0.0468
2.0714 29050 0.0314
2.0750 29100 0.05
2.0786 29150 0.0458
2.0821 29200 0.0332
2.0857 29250 0.0436
2.0893 29300 0.042
2.0928 29350 0.0484
2.0964 29400 0.0395
2.1000 29450 0.0498
2.1035 29500 0.0431
2.1071 29550 0.0429
2.1107 29600 0.0444
2.1142 29650 0.0409
2.1178 29700 0.0346
2.1214 29750 0.0376
2.1249 29800 0.0479
2.1285 29850 0.0379
2.1321 29900 0.0464
2.1356 29950 0.0411
2.1392 30000 0.0457
2.1428 30050 0.0332
2.1463 30100 0.0343
2.1499 30150 0.0437
2.1535 30200 0.0348
2.1570 30250 0.0306
2.1606 30300 0.0421
2.1641 30350 0.0436
2.1677 30400 0.0376
2.1713 30450 0.0362
2.1748 30500 0.0364
2.1784 30550 0.0422
2.1820 30600 0.042
2.1855 30650 0.042
2.1891 30700 0.0381
2.1927 30750 0.0432
2.1962 30800 0.0375
2.1998 30850 0.0313
2.2034 30900 0.0461
2.2069 30950 0.0428
2.2105 31000 0.0394
2.2141 31050 0.041
2.2176 31100 0.0387
2.2212 31150 0.0405
2.2248 31200 0.0387
2.2283 31250 0.0397
2.2319 31300 0.0393
2.2355 31350 0.0351
2.2390 31400 0.0408
2.2426 31450 0.0424
2.2461 31500 0.0387
2.2497 31550 0.0365
2.2533 31600 0.0366
2.2568 31650 0.0357
2.2604 31700 0.0338
2.2640 31750 0.0391
2.2675 31800 0.0422
2.2711 31850 0.0433
2.2747 31900 0.0471
2.2782 31950 0.0417
2.2818 32000 0.048
2.2854 32050 0.0354
2.2889 32100 0.0375
2.2925 32150 0.0359
2.2961 32200 0.0401
2.2996 32250 0.0405
2.3032 32300 0.0412
2.3068 32350 0.0397
2.3103 32400 0.0462
2.3139 32450 0.0414
2.3175 32500 0.0435
2.3210 32550 0.0357
2.3246 32600 0.0437
2.3282 32650 0.0469
2.3317 32700 0.0384
2.3353 32750 0.0398
2.3388 32800 0.0445
2.3424 32850 0.028
2.3460 32900 0.0385
2.3495 32950 0.0399
2.3531 33000 0.0379
2.3567 33050 0.0361
2.3602 33100 0.0481
2.3638 33150 0.0377
2.3674 33200 0.0386
2.3709 33250 0.0367
2.3745 33300 0.0443
2.3781 33350 0.0419
2.3816 33400 0.0404
2.3852 33450 0.036
2.3888 33500 0.0356
2.3923 33550 0.0366
2.3959 33600 0.0411
2.3995 33650 0.0301
2.4030 33700 0.0356
2.4066 33750 0.0425
2.4102 33800 0.0356
2.4137 33850 0.0349
2.4173 33900 0.0348
2.4208 33950 0.046
2.4244 34000 0.0371
2.4280 34050 0.0392
2.4315 34100 0.0386
2.4351 34150 0.0317
2.4387 34200 0.0389
2.4422 34250 0.0383
2.4458 34300 0.0422
2.4494 34350 0.0343
2.4529 34400 0.0388
2.4565 34450 0.0372
2.4601 34500 0.0337
2.4636 34550 0.0399
2.4672 34600 0.0369
2.4708 34650 0.0482
2.4743 34700 0.0337
2.4779 34750 0.0338
2.4815 34800 0.0399
2.4850 34850 0.0374
2.4886 34900 0.0405
2.4922 34950 0.0387
2.4957 35000 0.0396
2.4993 35050 0.0405
2.5029 35100 0.0383
2.5064 35150 0.044
2.5100 35200 0.036
2.5135 35250 0.0346
2.5171 35300 0.0405
2.5207 35350 0.0334
2.5242 35400 0.0412
2.5278 35450 0.0352
2.5314 35500 0.0368
2.5349 35550 0.0392
2.5385 35600 0.0393
2.5421 35650 0.0472
2.5456 35700 0.0372
2.5492 35750 0.0336
2.5528 35800 0.0435
2.5563 35850 0.0454
2.5599 35900 0.0403
2.5635 35950 0.0377
2.5670 36000 0.0371
2.5706 36050 0.0376
2.5742 36100 0.0419
2.5777 36150 0.0395
2.5813 36200 0.0366
2.5849 36250 0.0317
2.5884 36300 0.0382
2.5920 36350 0.0378
2.5956 36400 0.0354
2.5991 36450 0.0358
2.6027 36500 0.0396
2.6062 36550 0.0458
2.6098 36600 0.0381
2.6134 36650 0.0306
2.6169 36700 0.0344
2.6205 36750 0.038
2.6241 36800 0.0364
2.6276 36850 0.042
2.6312 36900 0.0357
2.6348 36950 0.0363
2.6383 37000 0.0319
2.6419 37050 0.032
2.6455 37100 0.0432
2.6490 37150 0.0331
2.6526 37200 0.038
2.6562 37250 0.0398
2.6597 37300 0.0394
2.6633 37350 0.0366
2.6669 37400 0.037
2.6704 37450 0.0424
2.6740 37500 0.0413
2.6776 37550 0.0386
2.6811 37600 0.0419
2.6847 37650 0.0319
2.6882 37700 0.0318
2.6918 37750 0.0377
2.6954 37800 0.037
2.6989 37850 0.0396
2.7025 37900 0.0398
2.7061 37950 0.0344
2.7096 38000 0.0359
2.7132 38050 0.0425
2.7168 38100 0.0359
2.7203 38150 0.0385
2.7239 38200 0.0343
2.7275 38250 0.038
2.7310 38300 0.0389
2.7346 38350 0.0267
2.7382 38400 0.0335
2.7417 38450 0.0348
2.7453 38500 0.033
2.7489 38550 0.0418
2.7524 38600 0.0427
2.7560 38650 0.0359
2.7596 38700 0.0418
2.7631 38750 0.0364
2.7667 38800 0.0368
2.7703 38850 0.0344
2.7738 38900 0.0351
2.7774 38950 0.0437
2.7809 39000 0.0361
2.7845 39050 0.0379
2.7881 39100 0.0394
2.7916 39150 0.0328
2.7952 39200 0.0276
2.7988 39250 0.0406
2.8023 39300 0.0344
2.8059 39350 0.0412
2.8095 39400 0.0442
2.8130 39450 0.0392
2.8166 39500 0.0339
2.8202 39550 0.0374
2.8237 39600 0.0369
2.8273 39650 0.0381
2.8309 39700 0.042
2.8344 39750 0.0397
2.8380 39800 0.0341
2.8416 39850 0.0362
2.8451 39900 0.0346
2.8487 39950 0.0353
2.8523 40000 0.0351
2.8558 40050 0.0385
2.8594 40100 0.0361
2.8629 40150 0.0406
2.8665 40200 0.0357
2.8701 40250 0.0446
2.8736 40300 0.0327
2.8772 40350 0.0378
2.8808 40400 0.0397
2.8843 40450 0.0409
2.8879 40500 0.0356
2.8915 40550 0.0334
2.8950 40600 0.038
2.8986 40650 0.0382
2.9022 40700 0.0361
2.9057 40750 0.0344
2.9093 40800 0.0442
2.9129 40850 0.0434
2.9164 40900 0.0347
2.9200 40950 0.0365
2.9236 41000 0.0397
2.9271 41050 0.0367
2.9307 41100 0.0408
2.9343 41150 0.0342
2.9378 41200 0.0334
2.9414 41250 0.0402
2.9450 41300 0.0342
2.9485 41350 0.035
2.9521 41400 0.035
2.9556 41450 0.0459
2.9592 41500 0.0386
2.9628 41550 0.0425
2.9663 41600 0.0335
2.9699 41650 0.0385
2.9735 41700 0.0377
2.9770 41750 0.0352
2.9806 41800 0.0303
2.9842 41850 0.0325
2.9877 41900 0.0362
2.9913 41950 0.0347
2.9949 42000 0.0357
2.9984 42050 0.0405

Framework Versions

  • Python: 3.12.3
  • Sentence Transformers: 3.1.0.dev0
  • Transformers: 4.44.2
  • PyTorch: 2.4.0+cu121
  • Accelerate: 0.33.0
  • Datasets: 2.19.1
  • Tokenizers: 0.19.1

Citation

BibTeX

Sentence Transformers

@inproceedings{reimers-2019-sentence-bert,
    title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
    author = "Reimers, Nils and Gurevych, Iryna",
    booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
    month = "11",
    year = "2019",
    publisher = "Association for Computational Linguistics",
    url = "https://arxiv.org/abs/1908.10084",
}

MultipleNegativesRankingLoss

@misc{henderson2017efficient,
    title={Efficient Natural Language Response Suggestion for Smart Reply},
    author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
    year={2017},
    eprint={1705.00652},
    archivePrefix={arXiv},
    primaryClass={cs.CL}
}
Downloads last month
181
Safetensors
Model size
117M params
Tensor type
F32
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Model tree for snunlp/KR-SBERT-Medium-extended-patent2024-hn

Finetuned
(2)
this model