File size: 2,862 Bytes
e3caf94
 
 
02c704f
 
 
 
 
e3caf94
 
 
 
02c704f
e3caf94
 
 
 
 
 
 
02c704f
 
 
 
 
e3caf94
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
57fa480
 
ffe5983
 
 
8ac2d8f
57fa480
 
 
 
ffe5983
57fa480
ffe5983
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
57fa480
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
---
library_name: peft
base_model: HuggingFaceH4/zephyr-7b-beta
datasets:
- w95/databricks-dolly-15k-az
license: mit
language:
- az
---

# Model Card for Model ID

This model was built via parameter-efficient finetuning of the HuggingFaceH4/zephyr-7b-beta base model on the first 8k rows in w95/databricks-dolly-15k-az.

## Model Details

### Model Description

<!-- Provide a longer summary of what this model is. -->

- **Developed by:** Mammad Hajili
- **Model type:** Causal LM
- **Language(s) (NLP):** Azerbaijani
- **License:** mit
- **Finetuned from model [optional]:** HuggingFaceH4/zephyr-7b-beta

## Training procedure

The following `bitsandbytes` quantization config was used during training:
- quant_method: bitsandbytes
- load_in_8bit: False
- load_in_4bit: True
- llm_int8_threshold: 6.0
- llm_int8_skip_modules: None
- llm_int8_enable_fp32_cpu_offload: False
- llm_int8_has_fp16_weight: False
- bnb_4bit_quant_type: nf4
- bnb_4bit_use_double_quant: False
- bnb_4bit_compute_dtype: bfloat16

### Framework versions

- PEFT 0.6.3.dev0


### Loading model and tokenizer

```python
from peft import PeftModel, PeftConfig
from transformers import AutoModelForCausalLM

config = PeftConfig.from_pretrained("hajili/zephyr-7b-beta-dolly-azerbaijani")
model = AutoModelForCausalLM.from_pretrained("HuggingFaceH4/zephyr-7b-beta", device_map='auto', torch_dtype=torch.bfloat16)
model = PeftModel.from_pretrained(model, "hajili/zephyr-7b-beta-dolly-azerbaijani")

tokenizer = transformers.AutoTokenizer.from_pretrained(
        "hajili/zephyr-7b-beta-dolly-azerbaijani",
    )
tokenizer.pad_token = tokenizer.eos_token
tokenizer.padding_side = 'right'
```

### Text Comprehension:

``` python
system_message = "Bakı şəhərinin əhalisi neçə milyondur?"
user_message = "Azərbaycanın paytaxtı Bakı şəhəridir. Onun əhalisi 3 milyondur. Bakı Xəzər dənizi sahilində yerləşir."

prompt = f"<|system|>\n{system_message}\n<|user|>\n{user_message}\n<|assistant|>\n"
inputs = tokenizer(prompt, return_tensors='pt', return_attention_mask=False)

output_ids = model.generate(**inputs, max_length=200)

answer = tokenizer.batch_decode(output_ids)[0]

print(answer) #Bakı şəhərinin əhalisi 3 milyondur.
```

### Text Generation
``` python
system_message = "Təbiət haqqında şeir yaz."
user_message = ""

prompt = f"<|system|>\n{system_message}\n<|user|>\n{user_message}\n<|assistant|>\n"
inputs = tokenizer(prompt, return_tensors='pt', return_attention_mask=False)

output_ids = model.generate(**inputs, max_length=200)

answer = tokenizer.batch_decode(output_ids)[0]

print(answer)

#Günəşin yanında, göy qurşağının rəngləri,
#Yeni bir günün doğulması,
#Həyat başlayır,
#Bir yeni səyahətə başlayın.
#
#Günəşin yanında, göy qurşağının rəngləri,
#Rənglər dəyiş,
#Həyat dəyişir,
#Və məni tərk edir.
```