|
from tokenizers import Tokenizer
|
|
|
|
tokenizer = Tokenizer.from_file('tokenizer.json')
|
|
|
|
|
|
sentences = [
|
|
"تو کہاں گئے؟",
|
|
"یہ کنغ پسند کنئے؟",
|
|
"ء نشان ء ھم جن انت اے نشان لچھانی تہ ء پہ مردمی نامانی",
|
|
"بلی شتگ کور ء اے کسہ ء دمی کارست اتمان ء کسہ ء دمی بهر انت انچو کہ من اول سرا گشتگ ات کہ اے کسہ دو بهر ء انت یکے نبشتہ کار ء وتی کیز ء بندانی سر گوستیں اے بهر ء اولی کسہ پلی مین ء کپتگ ات ء دمی بهر انت",
|
|
"ء دسمبرء ماہ انت،چہ چینء چست بوتگیں کوڈ کرونا وائرس ء گوات کشان ایرانء شھر قمء سر بیت کہ چمئے راہء دیم ء گوں بلوچستان ء کنت",
|
|
|
|
]
|
|
|
|
|
|
for sentence in sentences:
|
|
encoded = tokenizer.encode(sentence)
|
|
print(f"Original: {sentence}\nEncoded: {encoded.ids}\n")
|
|
|