File size: 4,190 Bytes
590afcf
 
045ec12
34b6afb
 
 
 
 
 
 
590afcf
 
34b6afb
590afcf
34b6afb
590afcf
 
 
34b6afb
 
590afcf
 
 
34b6afb
590afcf
34b6afb
 
 
 
 
590afcf
34b6afb
590afcf
34b6afb
590afcf
34b6afb
590afcf
34b6afb
 
 
590afcf
34b6afb
 
590afcf
34b6afb
 
 
 
590afcf
34b6afb
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
590afcf
34b6afb
04b29ac
 
 
 
 
 
 
 
 
736c55f
590afcf
34b6afb
 
 
590afcf
34b6afb
590afcf
34b6afb
 
590afcf
34b6afb
 
 
590afcf
34b6afb
590afcf
 
dba36b5
 
 
7543a95
dba36b5
 
 
 
 
 
 
 
7543a95
dba36b5
34b6afb
590afcf
34b6afb
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
---
library_name: transformers
pipeline_tag: question-answering
license: cc-by-nc-4.0
datasets:
- LocalDoc/LDQuAd
language:
- az
tags:
- mBART Large for Question Answering in Azerbaijani
---

# mBART Large for Question Answering in Azerbaijani

This repository contains a fine-tuned mBART Large model for question answering in Azerbaijani. The model was trained on a custom dataset and can be used to answer questions based on a given context.

## Model Details

**Base Model:** `facebook/mbart-large-50`  
**Language:** Azerbaijani (az_AZ)

## Training Details

The model was trained for 3 epochs with the following training and validation loss:

| Epoch | Training Loss | Validation Loss |
|-------|----------------|-----------------|
| 1     | 0.015100       | 0.014827        |
| 2     | 0.009800       | 0.013616        |
| 3     | 0.004100       | 0.015270        |

## Usage

To use this model, you need to install the `transformers` library from Hugging Face. You can then load the model and tokenizer and use them to answer questions based on a given context.

### Installation

```bash
pip install transformers
```

```python
from transformers import MBartForConditionalGeneration, MBart50Tokenizer

# Load the model and tokenizer
model_name = "LocalDoc/mbart_large_qa_azerbaijan"
tokenizer = MBart50Tokenizer.from_pretrained(model_name, src_lang="en_XX", tgt_lang="az_AZ")
model = MBartForConditionalGeneration.from_pretrained(model_name)

def answer_question(context, question):
    # Prepare input text
    input_text = f"context: {context} question: {question}"
    inputs = tokenizer(input_text, return_tensors="pt", max_length=512, truncation=True, padding="max_length")
    
    # Generate answer
    outputs = model.generate(
        input_ids=inputs["input_ids"],
        attention_mask=inputs["attention_mask"],
        max_length=128,
        num_beams=5,
        early_stopping=True
    )
    
    # Decode the answer
    answer = tokenizer.decode(outputs[0], skip_special_tokens=True)
    return answer

# Example usage
context = """Ey iman gətirənlər! Səbir edərək və namaz qılaraq Allahdan kömək istəyin! Şübhəsiz ki, Allah səbir edənlərlədir.
Ey iman gətirənlər, əgər yalnız Allaha ibadət edirsinizsə, sizə verdiyimiz ruzilərin təmiz olanlarından yeyin və Ona şükür edin!
Ey iman gətirənlər! Oruc tutmaq sizdən əvvəlkilərə fərz buyurulduğu kimi sizə də fərz buyuruldu ki, bəlkə, günahlardan çəkinəsiniz!
Ey iman gətirənlər, bütövlüklə İslama daxil olun! Şeytanın addımlarını izləməyin! Şübhəsiz ki, o sizin açıq-aydın düşməninizdir.
Ey iman gətirənlər! Həqiqətən, içki, qumar, bütlər və fal oxları şeytan əməli olan murdar şeylərdir. Bunlardan uzaq durun ki, bəlkə nicat tapasınız!
Ey iman gətirənlər! “Allah yolunda döyüşə çıxın!” - deyildiyi zaman sizə nə oldu ki, yerə yapışıb qaldınız. Axirətin əvəzinə dünya həyatına razı oldunuz?
Dünya malı axirət nemətlərinin yanında çox az bir şeydir.
Həqiqətən, insan çox zalım və çox nankordur."""

question = "Allah kiminlədir ?"

answer = answer_question(context, question)
print(answer)
```

## License

This model licensed under the CC BY-NC-ND 4.0 license.
What does this license allow?

    Attribution: You must give appropriate credit, provide a link to the license, and indicate if changes were made.
    Non-Commercial: You may not use the material for commercial purposes.
    No Derivatives: If you remix, transform, or build upon the material, you may not distribute the modified material.

For more information, please refer to the <a target="_blank" href="https://creativecommons.org/licenses/by-nc-nd/4.0/">CC BY-NC-ND 4.0 license</a>.



## Citation

```
@misc {localdoc_2024,
	author       = { {LocalDoc} },
	title        = { mbart_large_qa_azerbaijan (Revision 7484a07) },
	year         = 2024,
	url          = { https://huggingface.co/LocalDoc/mbart_large_qa_azerbaijan },
	doi          = { 10.57967/hf/2541 },
	publisher    = { Hugging Face }
}
```

## Contact

For more information, questions, or issues, please contact LocalDoc at [v.resad.89@gmail.com].