--- language: - ar tags: - answer-aware-question-generation - question-generation - QG dataset: - arabic_question_answering widget: - text: "context: الثورة الجزائرية أو ثورة المليون شهيد، اندلعت في 1 نوفمبر 1954 ضد المستعمر الفرنسي ودامت 7 سنوات ونصف. استشهد فيها أكثر من مليون ونصف مليون جزائري answer: 7 سنوات ونصف " - text: "context: اسكتلندا دولة في شمال غرب أوروبا، تعتبر جزء من الدول الأربع المكونة المملكة المتحدة. تحتل الثلث الشمالي من جزيرة بريطانيا العظمى وتحدها جنوبا إنجلترا ويحدها شرقا بحر الشمال وغربا المحيط الأطلسي. عاصمتها أدنبرة، وأهم مدنها وأكبرها مدينة غلاسكو. كانت اسكتلندا مملكة مستقلة حتى 1 مايو 1707 answer: أدنبرة " - text: "context: مات المستشار الألماني أدولف هتلر في 30 أبريل 1945 منتحرا عن طريق تناول مادة السيانيد السامة وإطلاق النار على نفسه وهي الرواية العامة المقبولة لطريقة موت الزعيم النازي answer: منتحرا " metrics: - bleu model-index: - name: Arabic-Question-Generation results: - task: name: Question-Generation type: automatic-question-generation metrics: - name: Bleu1 type: bleu value: 37.62 - name: Bleu2 type: bleu value: 27.80 - name: Bleu3 type: bleu value: 20.89 - name: Bleu4 type: bleu value: 15.87 - name: meteor type: meteor value: 33.19 - name: rougel type: rouge value: 43.37 --- # Arabic Question Generation Model This Model is fine-tuned [AraT5-Base Model](https://huggingface.co/UBC-NLP/AraT5-base) on Arabic Question-Answering Dataset for **Question Generation** task .It achieves the following results on the evaluation set: - Bleu 1: 37.62 - Bleu 2: 27.80 - Bleu 3: 20.89 - Bleu 4: 15.87 - Meteor: 33.19 - Rouge-L: 43.37 ## Live Demo Get the Question from given Context and a Answer :[Arabic QG Model](https://huggingface.co/spaces/Mihakram/Arabic_Question_Generation) ## Model in Action 🚀 ```python #Requirements !pip install transformers from transformers import AutoTokenizer,AutoModelForSeq2SeqLM model = AutoModelForSeq2SeqLM.from_pretrained("Mihakram/Arabic_Question_Generation") tokenizer = AutoTokenizer.from_pretrained("Mihakram/Arabic_Question_Generation") def get_question(context,answer): text="context: " +context + " " + "answer: " + answer + " " text_encoding = tokenizer.encode_plus( text,return_tensors="pt" ) model.eval() generated_ids = model.generate( input_ids=text_encoding['input_ids'], attention_mask=text_encoding['attention_mask'], max_length=64, num_beams=5, num_return_sequences=1 ) return tokenizer.decode(generated_ids[0],skip_special_tokens=True,clean_up_tokenization_spaces=True).replace('question: ',' ') context="الثورة الجزائرية أو ثورة المليون شهيد، اندلعت في 1 نوفمبر 1954 ضد المستعمر الفرنسي ودامت 7 سنوات ونصف. استشهد فيها أكثر من مليون ونصف مليون جزائري" answer =" 7 سنوات ونصف" get_question(context,answer) #output : question="كم استمرت الثورة الجزائرية؟ " ``` ## Details of Ara-T5 The **Ara-T5** model was presented in [AraT5: Text-to-Text Transformers for Arabic Language Generation](https://arxiv.org/abs/2109.12068) by *El Moatez Billah Nagoudi, AbdelRahim Elmadany, Muhammad Abdul-Mageed* ## Citation If you want to cite this model you can use this: ```bibtex @misc{Mihakram/, title={}, author={Mihoubi, Ibrir}, publisher={Hugging Face}, journal={Hugging Face Hub}, howpublished={\url{https://huggingface.co/}}, year={2022} } ``` ## Contacts **Mihoubi Akram Fawzi**: [Linkedin](https://www.linkedin.com/in/mihoubi-akram/) | [Github](https://github.com/mihoubi-akram) | **Ibrir Adel**: [Linkedin]() | [Github]() |