phongnp2010 commited on
Commit
42df73b
1 Parent(s): 1683dac

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +56 -69
README.md CHANGED
@@ -1,76 +1,63 @@
 
 
 
 
 
 
 
 
 
 
 
1
 
 
2
 
3
-
4
- **2. Tạo Model Card trên Hugging Face Hub**
5
- Sau khi bạn soạn thảo xong Model Card, bạn có thể thêm nó vào repo của mình như sau:
6
-
7
- **2.1 Thêm vào File `README.md`**
8
- Để cung cấp thông tin này cho người dùng, bạn chỉ cần chỉnh sửa file `README.md` trong repo của mình và thêm nội dung Markdown trên vào. Sau khi bạn upload mô hình lên Hugging Face, file `README.md` sẽ được hiển thị ở trang repo của bạn.
9
-
10
- **2.2 Các Tính Năng hỗ trợ Copy Code**
11
- Hugging Face sẽ tự động nhận diện các đoạn code được viết trong thẻ Markdown ```` ``` ```` và sẽ thêm nút **Copy** phía trên các ô code. Bạn chỉ cần bao bọc mã nguồn trong thẻ ```` ```python ``` ```` hoặc tương tự.
12
-
13
- **Ví dụ:**
14
-
15
- ```python
16
- # Code in markdown file
17
- ```python
18
- from transformers import AutoModelForCausalLM, AutoTokenizer
19
-
20
- model = AutoModelForCausalLM.from_pretrained("your-username/my-lora-model")
21
- tokenizer = AutoTokenizer.from_pretrained("your-username/my-lora-model")
22
-
23
- inputs = tokenizer("Hello, how are you?", return_tensors="pt")
24
- outputs = model.generate(**inputs)
25
- print(tokenizer.decode(outputs[0], skip_special_tokens=True))
26
-
27
-
28
- Khi người dùng vào trang repo của bạn trên Hugging Face, họ sẽ thấy một ô code có nút **Copy** ở phía trên. Mỗi khi người dùng nhấn vào nút Copy, mã sẽ được sao chép vào clipboard.
29
-
30
- **3. Cải thiện Giao Diện và Tương Tác**
31
- Để đảm bảo trang mô hình của bạn dễ sử dụng, bạn có thể làm thêm một số điều sau:
32
-
33
- - **Cung cấp nhiều ví dụ**: Bạn có thể thêm các ví dụ khác để người dùng dễ hiểu hơn về cách sử dụng mô hình của bạn.
34
- - **Mô tả chi tiết hơn**: Bao gồm chi tiết về loại dữ liệu mà mô hình được fine-tune trên đó, các hạn chế của mô hình, và các khả năng đặc biệt.
35
-
36
- **Ví dụ Model Card hoàn chỉnh**
37
-
38
- ```markdown
39
- # My LoRA Model
40
-
41
- This is a fine-tuned LoRA model based on [Base Model Name].
42
-
43
- ## Model Description
44
- This model is fine-tuned using LoRA (Low-Rank Adaptation) on top of a pre-trained large language model. It is designed to perform text generation tasks efficiently with reduced memory footprint compared to full fine-tuning.
45
-
46
- ##Training Details:
47
- - Base Model: [Base Model Name]
48
- - Fine-tuning Method: LoRA
49
- - Fine-tuning Data: [Dataset Name or Description]
50
- - Intended Use: Text Generation, Conversational AI, etc.
51
 
52
  ## How to use
53
 
54
- You can use this model directly with the `transformers` library:
55
 
56
  ```python
57
- from transformers import AutoModelForCausalLM, AutoTokenizer
58
-
59
- # Load model and tokenizer
60
- model = AutoModelForCausalLM.from_pretrained("your-username/my-lora-model")
61
- tokenizer = AutoTokenizer.from_pretrained("your-username/my-lora-model")
62
-
63
- # Generate text
64
- inputs = tokenizer("Hello, how are you?", return_tensors="pt")
65
- outputs = model.generate(**inputs)
66
- print(tokenizer.decode(outputs[0], skip_special_tokens=True))
67
-
68
-
69
- ---
70
-
71
-
72
- 1. **Ô Text**: Dùng để mô tả mô hình, cách thức fine-tune, và các thông tin bổ sung.
73
- 2. **Ô Code**: Sử dụng cú pháp Markdown để hiển thị ví dụ code. Hugging Face tự động hiển thị nút **Copy** trên các ô code.
74
- 3. **Copy Code**: Nút copy code sẽ tự động xuất hiện khi bạn sử dụng cú pháp Markdown chuẩn để trình bày các đoạn mã.
75
-
76
- Khi bạn hoàn thành việc soạn thảo Model Card, hãy upload lên Hugging Face kiểm tra xem các tính năng hiển thị như mong đợi!
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ language: en
3
+ license: mit
4
+ tags:
5
+ - text-generation
6
+ - causal-lm
7
+ - llm
8
+ - chatbot
9
+ - llama-7b
10
+ - fine-tuned
11
+ ---
12
 
13
+ # Chatbot Llama-7B Fine-tuned for Chat
14
 
15
+ This model is a fine-tuned version of the Llama-7B model, trained for chatbot tasks using LoRA.
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
16
 
17
  ## How to use
18
 
19
+ You can use the model for text generation tasks. Here's an example of how to load the model and run inference.
20
 
21
  ```python
22
+ # 1. Import các thư viện cần thiết
23
+ import torch
24
+ from transformers import AutoTokenizer, AutoModelForCausalLM, pipeline
25
+ import time
26
+
27
+ # 2. Định nghĩa model_id từ Hugging Face
28
+ model_id = "phongnp2010/chatbot-llama-7b-chathf"
29
+
30
+ # 3. Load Tokenizer và Model đã merge từ Hugging Face
31
+ tokenizer = AutoTokenizer.from_pretrained(model_id, trust_remote_code=True)
32
+ tokenizer.pad_token = tokenizer.eos_token
33
+ tokenizer.padding_side = "right"
34
+
35
+ # 4. Load mô hình đã merge (không cần phải load base model và merge lại)
36
+ model = AutoModelForCausalLM.from_pretrained(
37
+ model_id,
38
+ low_cpu_mem_usage=True,
39
+ return_dict=True,
40
+ torch_dtype=torch.float16, # Sử dụng FP16 nếu bạn muốn tiết kiệm bộ nhớ GPU
41
+ device_map="auto", # Cấu hình auto device map nếu sử dụng nhiều GPU hoặc chuyển sang CPU
42
+ )
43
+
44
+ # 5. Khởi tạo Inference Pipeline
45
+ pipe = pipeline(task="text-generation", model=model, tokenizer=tokenizer, max_length=2048)
46
+
47
+ # 6. Thực hiện inference
48
+ while True:
49
+ prompt = input("Type your question (or '0' to exit): ")
50
+ if prompt != '0':
51
+ start = time.time()
52
+ # Chạy inference
53
+ result = pipe(f"<s>[INST] {prompt} [/INST]") # Cách bạn chuẩn bị input (bằng cách sử dụng [INST] tag)
54
+ generated_text = result[0]['generated_text']
55
+
56
+ # Trích xuất câu trả lời từ text generated
57
+ answer = generated_text.split('[/INST]')[1].split('</s>')[0].strip()
58
+
59
+ print(f'Answer: {answer}')
60
+ print(f'Time: {time.time() - start} seconds')
61
+ else:
62
+ print('Thank you!')
63
+ break