Salman95s's picture
Upload 27 files
cfc20e5 verified
raw
history blame
1.09 kB
from tokenizers import Tokenizer
tokenizer = Tokenizer.from_file('tokenizer.json')
# Sample Balochi sentences
sentences = [
"تو کہاں گئے؟",
"یہ کنغ پسند کنئے؟",
"ء نشان ء ھم جن انت اے نشان لچھانی تہ ء پہ مردمی نامانی",
"بلی شتگ کور ء اے کسہ ء دمی کارست اتمان ء کسہ ء دمی بهر انت انچو کہ من اول سرا گشتگ ات کہ اے کسہ دو بهر ء انت یکے نبشتہ کار ء وتی کیز ء بندانی سر گوستیں اے بهر ء اولی کسہ پلی مین ء کپتگ ات ء دمی بهر انت",
"ء دسمبرء ماہ انت،چہ چینء چست بوتگیں کوڈ کرونا وائرس ء گوات کشان ایرانء شھر قمء سر بیت کہ چمئے راہء دیم ء گوں بلوچستان ء کنت",
# Add more sentences as needed
]
# Tokenize sentences
for sentence in sentences:
encoded = tokenizer.encode(sentence)
print(f"Original: {sentence}\nEncoded: {encoded.ids}\n")