File size: 4,190 Bytes
590afcf 045ec12 34b6afb 590afcf 34b6afb 590afcf 34b6afb 590afcf 34b6afb 590afcf 34b6afb 590afcf 34b6afb 590afcf 34b6afb 590afcf 34b6afb 590afcf 34b6afb 590afcf 34b6afb 590afcf 34b6afb 590afcf 34b6afb 590afcf 34b6afb 590afcf 34b6afb 04b29ac 736c55f 590afcf 34b6afb 590afcf 34b6afb 590afcf 34b6afb 590afcf 34b6afb 590afcf 34b6afb 590afcf dba36b5 7543a95 dba36b5 7543a95 dba36b5 34b6afb 590afcf 34b6afb |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 |
---
library_name: transformers
pipeline_tag: question-answering
license: cc-by-nc-4.0
datasets:
- LocalDoc/LDQuAd
language:
- az
tags:
- mBART Large for Question Answering in Azerbaijani
---
# mBART Large for Question Answering in Azerbaijani
This repository contains a fine-tuned mBART Large model for question answering in Azerbaijani. The model was trained on a custom dataset and can be used to answer questions based on a given context.
## Model Details
**Base Model:** `facebook/mbart-large-50`
**Language:** Azerbaijani (az_AZ)
## Training Details
The model was trained for 3 epochs with the following training and validation loss:
| Epoch | Training Loss | Validation Loss |
|-------|----------------|-----------------|
| 1 | 0.015100 | 0.014827 |
| 2 | 0.009800 | 0.013616 |
| 3 | 0.004100 | 0.015270 |
## Usage
To use this model, you need to install the `transformers` library from Hugging Face. You can then load the model and tokenizer and use them to answer questions based on a given context.
### Installation
```bash
pip install transformers
```
```python
from transformers import MBartForConditionalGeneration, MBart50Tokenizer
# Load the model and tokenizer
model_name = "LocalDoc/mbart_large_qa_azerbaijan"
tokenizer = MBart50Tokenizer.from_pretrained(model_name, src_lang="en_XX", tgt_lang="az_AZ")
model = MBartForConditionalGeneration.from_pretrained(model_name)
def answer_question(context, question):
# Prepare input text
input_text = f"context: {context} question: {question}"
inputs = tokenizer(input_text, return_tensors="pt", max_length=512, truncation=True, padding="max_length")
# Generate answer
outputs = model.generate(
input_ids=inputs["input_ids"],
attention_mask=inputs["attention_mask"],
max_length=128,
num_beams=5,
early_stopping=True
)
# Decode the answer
answer = tokenizer.decode(outputs[0], skip_special_tokens=True)
return answer
# Example usage
context = """Ey iman gətirənlər! Səbir edərək və namaz qılaraq Allahdan kömək istəyin! Şübhəsiz ki, Allah səbir edənlərlədir.
Ey iman gətirənlər, əgər yalnız Allaha ibadət edirsinizsə, sizə verdiyimiz ruzilərin təmiz olanlarından yeyin və Ona şükür edin!
Ey iman gətirənlər! Oruc tutmaq sizdən əvvəlkilərə fərz buyurulduğu kimi sizə də fərz buyuruldu ki, bəlkə, günahlardan çəkinəsiniz!
Ey iman gətirənlər, bütövlüklə İslama daxil olun! Şeytanın addımlarını izləməyin! Şübhəsiz ki, o sizin açıq-aydın düşməninizdir.
Ey iman gətirənlər! Həqiqətən, içki, qumar, bütlər və fal oxları şeytan əməli olan murdar şeylərdir. Bunlardan uzaq durun ki, bəlkə nicat tapasınız!
Ey iman gətirənlər! “Allah yolunda döyüşə çıxın!” - deyildiyi zaman sizə nə oldu ki, yerə yapışıb qaldınız. Axirətin əvəzinə dünya həyatına razı oldunuz?
Dünya malı axirət nemətlərinin yanında çox az bir şeydir.
Həqiqətən, insan çox zalım və çox nankordur."""
question = "Allah kiminlədir ?"
answer = answer_question(context, question)
print(answer)
```
## License
This model licensed under the CC BY-NC-ND 4.0 license.
What does this license allow?
Attribution: You must give appropriate credit, provide a link to the license, and indicate if changes were made.
Non-Commercial: You may not use the material for commercial purposes.
No Derivatives: If you remix, transform, or build upon the material, you may not distribute the modified material.
For more information, please refer to the <a target="_blank" href="https://creativecommons.org/licenses/by-nc-nd/4.0/">CC BY-NC-ND 4.0 license</a>.
## Citation
```
@misc {localdoc_2024,
author = { {LocalDoc} },
title = { mbart_large_qa_azerbaijan (Revision 7484a07) },
year = 2024,
url = { https://huggingface.co/LocalDoc/mbart_large_qa_azerbaijan },
doi = { 10.57967/hf/2541 },
publisher = { Hugging Face }
}
```
## Contact
For more information, questions, or issues, please contact LocalDoc at [v.resad.89@gmail.com]. |