---
base_model: snunlp/KR-SBERT-V40K-klueNLI-augSTS
datasets: []
language: []
library_name: sentence-transformers
pipeline_tag: sentence-similarity
tags:
- sentence-transformers
- sentence-similarity
- feature-extraction
- generated_from_trainer
- dataset_size:213769
- loss:MultipleNegativesRankingLoss
widget:
- source_sentence: 구속장치의 세부 조정은 어떤 목적으로 이루어지나요?
sentences:
- SU2i FL 모델의 무릎 부분에서는 2.0(-2)점을 받았는데, 이는 개선의 여지가 있음을 나타냅니다.
- 충돌 시 승객 보호 성능을 최적화하기 위한 노력의 일환으로 볼 수 있습니다.
- 안전벨트의 신율은 모든 좌석에서 6±1%로 설정되어 있습니다.
- source_sentence: 상단 다이어그램은 차량 측면 프레임의 단면도를 제시하고 있습니다. 이 다이어그램에서는 각 부분에 번호가 매겨져 있어,
이전에 제시된 차체 개선안 표의 항목들과 직접적으로 연관됩니다.
sentences:
- 특히 주목할 만한 점은 핑크색으로 강조된 부분들인데, 이는 강화되거나 새롭게 추가된 구조물을 나타냅니다. 이러한 시각적 표현은 안전성 향상을
위해 어떤 부분이 중점적으로 개선되었는지를 쉽게 파악할 수 있게 해줍니다.
- 이는 목표치를 크게 상회하는 수준으로, 이전 단계들의 문제점들이 대부분 해결되었음을 의미합니다.
- 복부변위UPR의 최대 변위는 약 20mm로 관측되었습니다.
- source_sentence: 그래프 하단에 표시된 생존 공간은 무엇을 나타냅니까?
sentences:
- 그래프 하단에 표시된 생존 공간은 충돌 후에도 반드시 유지되어야 하는 최소한의 공간을 나타냅니다.
- TSP+ 등급의 경우, ODB(Offset Deformable Barrier) 테스트에서 'A'(Acceptable) 이상을 받아야 합니다.
- 이러한 세부적인 설계 차이는 각 모델의 충돌 안전성, 소음 감소 능력, 그리고 전반적인 품질에 영향을 미칠 수 있습니다.
- source_sentence: 이러한 현상들이 연쇄적으로 일어나면서 초래되는 결과는 무엇입니까?
sentences:
- 이 차량은 TSP+(Top Safety Pick Plus) 등급을 목표로 하고 있으며, P1/T1 단계부터 M/양산 단계까지 일관되게 TSP+
등급을 달성했습니다. 이는 전반적인 안전성이 매우 높은 수준임을 나타냅니다.
- 표는 Proto, P1, P2 세 가지 모델의 시험 결과를 비교하고 있습니다.
- 에어백과 더미의 조기 접촉, 휠 형상으로 인한 더미의 상방 거동 증가, 머리가 윈드실드를 타격, 결과적으로 상해 발생이 초래됩니다.
- source_sentence: 쿼터스트라이크의 개선 계획은 무엇인가요?
sentences:
- 기존 440 등급의 강철로 1.0mm 두께를 사용하던 것을 590 등급의 강철로 변경하고 두께를 1.8mm로 증가시키는 계획입니다.
- 등판(Back Plate)에 가해진 힘을 측정한 결과, Y축 방향으로 1.18 kN의 힘이 측정되었고, 이로 인해 -0.120점의 감점이 있었습니다.
- 측면 충돌 시 차량 내부로의 변형을 최소화하고 승객실의 생존 공간을 유지하는 역할을 합니다.
---
# SentenceTransformer based on snunlp/KR-SBERT-V40K-klueNLI-augSTS
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [snunlp/KR-SBERT-V40K-klueNLI-augSTS](https://huggingface.co/snunlp/KR-SBERT-V40K-klueNLI-augSTS). It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
## Model Details
### Model Description
- **Model Type:** Sentence Transformer
- **Base model:** [snunlp/KR-SBERT-V40K-klueNLI-augSTS](https://huggingface.co/snunlp/KR-SBERT-V40K-klueNLI-augSTS)
- **Maximum Sequence Length:** 128 tokens
- **Output Dimensionality:** 768 tokens
- **Similarity Function:** Cosine Similarity
### Model Sources
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
### Full Model Architecture
```
SentenceTransformer(
(0): Transformer({'max_seq_length': 128, 'do_lower_case': False}) with Transformer model: BertModel
(1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
)
```
## Usage
### Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
```bash
pip install -U sentence-transformers
```
Then you can load this model and run inference.
```python
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("SungJoo/sbert-ft-slide-textbook-0914")
# Run inference
sentences = [
'쿼터스트라이크의 개선 계획은 무엇인가요?',
'기존 440 등급의 강철로 1.0mm 두께를 사용하던 것을 590 등급의 강철로 변경하고 두께를 1.8mm로 증가시키는 계획입니다.',
'등판(Back Plate)에 가해진 힘을 측정한 결과, Y축 방향으로 1.18 kN의 힘이 측정되었고, 이로 인해 -0.120점의 감점이 있었습니다.',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
```
## Training Details
### Training Dataset
#### Unnamed Dataset
* Size: 213,769 training samples
* Columns: sentence_0
and sentence_1
* Approximate statistics based on the first 1000 samples:
| | sentence_0 | sentence_1 |
|:--------|:-----------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------|
| type | string | string |
| details |
- min: 8 tokens
- mean: 19.05 tokens
- max: 106 tokens
| - min: 8 tokens
- mean: 29.02 tokens
- max: 101 tokens
|
* Samples:
| sentence_0 | sentence_1 |
|:------------------------------------------------------------------------------------------------------|:--------------------------------------------------------------------|
| 이 테스트 결과가 자동차 제조사들에게 미치는 영향은 무엇인가요?
| 이 테스트 결과는 자동차 제조사들이 지속적으로 차량의 안전성을 개선하도록 유도하는 역할을 합니다.
|
| 3. 정보의 일관성: 50kph 프로토콜을 참조하도록 함으로써, 다양한 차량 모델이나 테스트 간의 머리 보호 평가 결과를 일관성 있게 비교할 수 있게 됩니다.
| 이는 안전성 평가의 신뢰도와 객관성을 높이는 데 기여합니다.
|
| 복부의 상부와 하부 측면 압축 값은 각각 얼마인가요?
| 복부의 상부와 하부 측면 압축은 각각 11.0mm와 21.3mm입니다.
|
* Loss: [MultipleNegativesRankingLoss
](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
```json
{
"scale": 20.0,
"similarity_fct": "cos_sim"
}
```
### Training Hyperparameters
#### Non-Default Hyperparameters
- `per_device_train_batch_size`: 64
- `per_device_eval_batch_size`: 64
- `num_train_epochs`: 10
- `multi_dataset_batch_sampler`: round_robin
#### All Hyperparameters
Click to expand
- `overwrite_output_dir`: False
- `do_predict`: False
- `eval_strategy`: no
- `prediction_loss_only`: True
- `per_device_train_batch_size`: 64
- `per_device_eval_batch_size`: 64
- `per_gpu_train_batch_size`: None
- `per_gpu_eval_batch_size`: None
- `gradient_accumulation_steps`: 1
- `eval_accumulation_steps`: None
- `torch_empty_cache_steps`: None
- `learning_rate`: 5e-05
- `weight_decay`: 0.0
- `adam_beta1`: 0.9
- `adam_beta2`: 0.999
- `adam_epsilon`: 1e-08
- `max_grad_norm`: 1
- `num_train_epochs`: 10
- `max_steps`: -1
- `lr_scheduler_type`: linear
- `lr_scheduler_kwargs`: {}
- `warmup_ratio`: 0.0
- `warmup_steps`: 0
- `log_level`: passive
- `log_level_replica`: warning
- `log_on_each_node`: True
- `logging_nan_inf_filter`: True
- `save_safetensors`: True
- `save_on_each_node`: False
- `save_only_model`: False
- `restore_callback_states_from_checkpoint`: False
- `no_cuda`: False
- `use_cpu`: False
- `use_mps_device`: False
- `seed`: 42
- `data_seed`: None
- `jit_mode_eval`: False
- `use_ipex`: False
- `bf16`: False
- `fp16`: False
- `fp16_opt_level`: O1
- `half_precision_backend`: auto
- `bf16_full_eval`: False
- `fp16_full_eval`: False
- `tf32`: None
- `local_rank`: 0
- `ddp_backend`: None
- `tpu_num_cores`: None
- `tpu_metrics_debug`: False
- `debug`: []
- `dataloader_drop_last`: False
- `dataloader_num_workers`: 0
- `dataloader_prefetch_factor`: None
- `past_index`: -1
- `disable_tqdm`: False
- `remove_unused_columns`: True
- `label_names`: None
- `load_best_model_at_end`: False
- `ignore_data_skip`: False
- `fsdp`: []
- `fsdp_min_num_params`: 0
- `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
- `fsdp_transformer_layer_cls_to_wrap`: None
- `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
- `deepspeed`: None
- `label_smoothing_factor`: 0.0
- `optim`: adamw_torch
- `optim_args`: None
- `adafactor`: False
- `group_by_length`: False
- `length_column_name`: length
- `ddp_find_unused_parameters`: None
- `ddp_bucket_cap_mb`: None
- `ddp_broadcast_buffers`: False
- `dataloader_pin_memory`: True
- `dataloader_persistent_workers`: False
- `skip_memory_metrics`: True
- `use_legacy_prediction_loop`: False
- `push_to_hub`: False
- `resume_from_checkpoint`: None
- `hub_model_id`: None
- `hub_strategy`: every_save
- `hub_private_repo`: False
- `hub_always_push`: False
- `gradient_checkpointing`: False
- `gradient_checkpointing_kwargs`: None
- `include_inputs_for_metrics`: False
- `eval_do_concat_batches`: True
- `fp16_backend`: auto
- `push_to_hub_model_id`: None
- `push_to_hub_organization`: None
- `mp_parameters`:
- `auto_find_batch_size`: False
- `full_determinism`: False
- `torchdynamo`: None
- `ray_scope`: last
- `ddp_timeout`: 1800
- `torch_compile`: False
- `torch_compile_backend`: None
- `torch_compile_mode`: None
- `dispatch_batches`: None
- `split_batches`: None
- `include_tokens_per_second`: False
- `include_num_input_tokens_seen`: False
- `neftune_noise_alpha`: None
- `optim_target_modules`: None
- `batch_eval_metrics`: False
- `eval_on_start`: False
- `eval_use_gather_object`: False
- `batch_sampler`: batch_sampler
- `multi_dataset_batch_sampler`: round_robin
### Training Logs
| Epoch | Step | Training Loss |
|:------:|:-----:|:-------------:|
| 0.1497 | 500 | 1.5924 |
| 0.2993 | 1000 | 0.8394 |
| 0.4490 | 1500 | 0.6154 |
| 0.5986 | 2000 | 0.5072 |
| 0.7483 | 2500 | 0.4423 |
| 0.8979 | 3000 | 0.3944 |
| 1.0476 | 3500 | 0.3535 |
| 1.1972 | 4000 | 0.3231 |
| 1.3469 | 4500 | 0.2963 |
| 1.4966 | 5000 | 0.2661 |
| 1.6462 | 5500 | 0.2425 |
| 1.7959 | 6000 | 0.2181 |
| 1.9455 | 6500 | 0.188 |
| 2.0952 | 7000 | 0.1697 |
| 2.2448 | 7500 | 0.1568 |
| 2.3945 | 8000 | 0.1472 |
| 2.5441 | 8500 | 0.1388 |
| 2.6938 | 9000 | 0.1268 |
| 2.8435 | 9500 | 0.1193 |
| 2.9931 | 10000 | 0.1002 |
| 3.1428 | 10500 | 0.097 |
| 3.2924 | 11000 | 0.0907 |
| 3.4421 | 11500 | 0.0855 |
| 3.5917 | 12000 | 0.0801 |
| 3.7414 | 12500 | 0.0748 |
| 3.8911 | 13000 | 0.0673 |
| 4.0407 | 13500 | 0.0603 |
| 4.1904 | 14000 | 0.0587 |
| 4.3400 | 14500 | 0.0557 |
| 4.4897 | 15000 | 0.0534 |
| 4.6393 | 15500 | 0.0505 |
| 4.7890 | 16000 | 0.0465 |
| 4.9386 | 16500 | 0.0424 |
| 5.0883 | 17000 | 0.0402 |
| 5.2380 | 17500 | 0.0378 |
| 5.3876 | 18000 | 0.0353 |
| 5.5373 | 18500 | 0.0356 |
| 5.6869 | 19000 | 0.0321 |
| 5.8366 | 19500 | 0.032 |
| 5.9862 | 20000 | 0.0279 |
| 6.1359 | 20500 | 0.0274 |
| 6.2855 | 21000 | 0.0271 |
| 6.4352 | 21500 | 0.025 |
| 6.5849 | 22000 | 0.025 |
| 6.7345 | 22500 | 0.0234 |
| 6.8842 | 23000 | 0.0212 |
| 7.0338 | 23500 | 0.0215 |
| 7.1835 | 24000 | 0.0198 |
| 7.3331 | 24500 | 0.0191 |
| 7.4828 | 25000 | 0.0187 |
| 7.6324 | 25500 | 0.0183 |
| 7.7821 | 26000 | 0.0173 |
| 7.9318 | 26500 | 0.0162 |
| 8.0814 | 27000 | 0.0159 |
| 8.2311 | 27500 | 0.0151 |
| 8.3807 | 28000 | 0.0146 |
| 8.5304 | 28500 | 0.015 |
| 8.6800 | 29000 | 0.0138 |
| 8.8297 | 29500 | 0.0143 |
| 8.9793 | 30000 | 0.0134 |
| 9.1290 | 30500 | 0.0127 |
| 9.2787 | 31000 | 0.0133 |
| 9.4283 | 31500 | 0.012 |
| 9.5780 | 32000 | 0.0124 |
| 9.7276 | 32500 | 0.0117 |
| 9.8773 | 33000 | 0.0116 |
### Framework Versions
- Python: 3.8.10
- Sentence Transformers: 3.0.1
- Transformers: 4.44.2
- PyTorch: 2.1.2+cu121
- Accelerate: 0.34.0
- Datasets: 2.21.0
- Tokenizers: 0.19.1
## Citation
### BibTeX
#### Sentence Transformers
```bibtex
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}
```
#### MultipleNegativesRankingLoss
```bibtex
@misc{henderson2017efficient,
title={Efficient Natural Language Response Suggestion for Smart Reply},
author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
year={2017},
eprint={1705.00652},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
```