Spaces:
Sleeping
Sleeping
Update app.py
Browse files
app.py
CHANGED
@@ -14,7 +14,7 @@ def generate(prompt):
|
|
14 |
input_ids = tokenizer.encode(prompt, return_tensors="pt")
|
15 |
#output_ids = model.generate(input_ids, max_length=800, num_beams=20, early_stopping=True)
|
16 |
complete_str=""
|
17 |
-
for i in range(0,
|
18 |
outputs = model.generate(input_ids, do_sample=True, max_new_tokens=2500,early_stopping=False)
|
19 |
inp = tokenizer.decode(outputs[0])
|
20 |
complete_str=complete_str+inp+'\n'+"------"+'\n'
|
@@ -26,8 +26,8 @@ demo=gradio.Interface (
|
|
26 |
fn=generate,
|
27 |
inputs=gradio.Textbox(value="دەتوانی بە شێوازی مەولەوی شیعری من پێسەم زانا تۆ پڕ مەیلەنی لە کتێبی دیوانی مەولەوی شیعرێکم بۆ بنووسیت",lines=2, placeholder="شیعرێک", rtl=True),
|
28 |
outputs=gradio.Textbox(lines=2, placeholder="",rtl=True),
|
29 |
-
title='
|
30 |
-
description='
|
31 |
|
32 |
)
|
33 |
|
|
|
14 |
input_ids = tokenizer.encode(prompt, return_tensors="pt")
|
15 |
#output_ids = model.generate(input_ids, max_length=800, num_beams=20, early_stopping=True)
|
16 |
complete_str=""
|
17 |
+
for i in range(0, 1):
|
18 |
outputs = model.generate(input_ids, do_sample=True, max_new_tokens=2500,early_stopping=False)
|
19 |
inp = tokenizer.decode(outputs[0])
|
20 |
complete_str=complete_str+inp+'\n'+"------"+'\n'
|
|
|
26 |
fn=generate,
|
27 |
inputs=gradio.Textbox(value="دەتوانی بە شێوازی مەولەوی شیعری من پێسەم زانا تۆ پڕ مەیلەنی لە کتێبی دیوانی مەولەوی شیعرێکم بۆ بنووسیت",lines=2, placeholder="شیعرێک", rtl=True),
|
28 |
outputs=gradio.Textbox(lines=2, placeholder="",rtl=True),
|
29 |
+
title='Hawrami Poem Generator',
|
30 |
+
description='Hawrami poem generator '
|
31 |
|
32 |
)
|
33 |
|