mwz commited on
Commit
add0c5e
1 Parent(s): 7818e94

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +9 -6
README.md CHANGED
@@ -6,12 +6,15 @@ tags:
6
  model-index:
7
  - name: UrduSentimentClassification
8
  results: []
9
-
10
  widget:
11
- - text: وی این ایچ کی سالانہ خالص فروخت تقریبا 5 ملین یورو ہے اور اس میں 21 افراد کام کرتے ہیں۔
12
- example_title: Neutral Example
 
 
13
  - text: تاہم مالی بحران کی وجہ سے ترقیاتی مارجن میں کمی آئی ہے۔
14
- example_title: Negative Example
 
 
15
  ---
16
 
17
  <!-- This model card has been generated automatically according to the information the Trainer had access to. You
@@ -19,7 +22,7 @@ should probably proofread and complete it, then remove this comment. -->
19
 
20
  # UrduSentimentClassification
21
 
22
- This model is a fine-tuned version of [urduhack/roberta-urdu-small](https://huggingface.co/urduhack/roberta-urdu-small) on an unknown dataset.
23
  It achieves the following results on the evaluation set:
24
  - Loss: 0.4924
25
 
@@ -65,4 +68,4 @@ The following hyperparameters were used during training:
65
  - Transformers 4.35.2
66
  - Pytorch 2.1.0+cu118
67
  - Datasets 2.15.0
68
- - Tokenizers 0.15.0
 
6
  model-index:
7
  - name: UrduSentimentClassification
8
  results: []
 
9
  widget:
10
+ - text: >-
11
+ وی این ایچ کی سالانہ خالص فروخت تقریبا 5 ملین یورو ہے اور اس میں 21 افراد
12
+ کام کرتے ہیں۔
13
+ example_title: Neutral Example
14
  - text: تاہم مالی بحران کی وجہ سے ترقیاتی مارجن میں کمی آئی ہے۔
15
+ example_title: Negative Example
16
+ datasets:
17
+ - mwz/ur_financial_phrasebank
18
  ---
19
 
20
  <!-- This model card has been generated automatically according to the information the Trainer had access to. You
 
22
 
23
  # UrduSentimentClassification
24
 
25
+ This model is a fine-tuned version of [urduhack/roberta-urdu-small](https://huggingface.co/urduhack/roberta-urdu-small) on Financial dataset.
26
  It achieves the following results on the evaluation set:
27
  - Loss: 0.4924
28
 
 
68
  - Transformers 4.35.2
69
  - Pytorch 2.1.0+cu118
70
  - Datasets 2.15.0
71
+ - Tokenizers 0.15.0