aubmindlab commited on
Commit
6858434
1 Parent(s): 9ebf94c

Fixed readme

Browse files
Files changed (2) hide show
  1. README.md +1 -1
  2. Readme.md +0 -44
README.md CHANGED
@@ -3,7 +3,7 @@ language: ar
3
 
4
  widget:
5
  - text: "وإذا كان هناك من لا يزال يعتقد أن لبنان هو سويسرا الشرق ، فهو مخطئ إلى حد بعيد . فلبنان ليس سويسرا ، ولا يمكن أن يكون كذلك . لقد عاش اللبنانيون في هذا البلد منذ ما يزيد عن ألف وخمسمئة عام ، أي منذ تأسيس الإمارة الشهابية التي أسسها الأمير فخر الدين المعني الثاني ( 1697 - 1742 )"
6
- ---
7
 
8
  # AraGPT2 Detector
9
 
 
3
 
4
  widget:
5
  - text: "وإذا كان هناك من لا يزال يعتقد أن لبنان هو سويسرا الشرق ، فهو مخطئ إلى حد بعيد . فلبنان ليس سويسرا ، ولا يمكن أن يكون كذلك . لقد عاش اللبنانيون في هذا البلد منذ ما يزيد عن ألف وخمسمئة عام ، أي منذ تأسيس الإمارة الشهابية التي أسسها الأمير فخر الدين المعني الثاني ( 1697 - 1742 )"
6
+ ---
7
 
8
  # AraGPT2 Detector
9
 
Readme.md DELETED
@@ -1,44 +0,0 @@
1
- ---
2
- language: ar
3
-
4
- widget:
5
- - text: "وإذا كان هناك من لا يزال يعتقد أن لبنان هو سويسرا الشرق ، فهو مخطئ إلى حد بعيد . فلبنان ليس سويسرا ، ولا يمكن أن يكون كذلك . لقد عاش اللبنانيون في هذا البلد منذ ما يزيد عن ألف وخمسمئة عام ، أي منذ تأسيس الإمارة الشهابية التي أسسها الأمير فخر الدين المعني الثاني ( 1697 - 1742 )"
6
- ---
7
-
8
- # AraGPT2 Detector
9
-
10
- Machine generated detector model from the [AraGPT2: Pre-Trained Transformer for Arabic Language Generation paper](https://arxiv.org/abs/2012.15520)
11
-
12
- This model is trained on the long text passages, and achieves a 99.4% F1-Score.
13
-
14
- # How to use it:
15
- ```python
16
- from transformers import pipeline
17
- from arabert.preprocess import ArabertPreprocessor
18
-
19
- processor = ArabertPreprocessor(model="aubmindlab/araelectra-base-discriminator")
20
- pipe = pipeline("sentiment-analysis", model = "aubmindlab/aragpt2-mega-detector-long")
21
-
22
- text = " "
23
- text_prep = processor.preprocess(text)
24
- result = pipe(text_prep)
25
- # [{'label': 'machine-generated', 'score': 0.9977743625640869}]
26
- ```
27
-
28
-
29
- # If you used this model please cite us as :
30
- ```
31
- @misc{antoun2020aragpt2,
32
- title={AraGPT2: Pre-Trained Transformer for Arabic Language Generation},
33
- author={Wissam Antoun and Fady Baly and Hazem Hajj},
34
- year={2020},
35
- eprint={2012.15520},
36
- archivePrefix={arXiv},
37
- primaryClass={cs.CL}
38
- }
39
- ```
40
-
41
- # Contacts
42
- **Wissam Antoun**: [Linkedin](https://www.linkedin.com/in/wissam-antoun-622142b4/) | [Twitter](https://twitter.com/wissam_antoun) | [Github](https://github.com/WissamAntoun) | <wfa07@mail.aub.edu> | <wissam.antoun@gmail.com>
43
-
44
- **Fady Baly**: [Linkedin](https://www.linkedin.com/in/fadybaly/) | [Twitter](https://twitter.com/fadybaly) | [Github](https://github.com/fadybaly) | <fgb06@mail.aub.edu> | <baly.fady@gmail.com>