from tokenizers import Tokenizer tokenizer = Tokenizer.from_file('tokenizer.json') # Sample Balochi sentences sentences = [ "تو کہاں گئے؟", "یہ کنغ پسند کنئے؟", "ء نشان ء ھم جن انت اے نشان لچھانی تہ ء پہ مردمی نامانی", "بلی شتگ کور ء اے کسہ ء دمی کارست اتمان ء کسہ ء دمی بهر انت انچو کہ من اول سرا گشتگ ات کہ اے کسہ دو بهر ء انت یکے نبشتہ کار ء وتی کیز ء بندانی سر گوستیں اے بهر ء اولی کسہ پلی مین ء کپتگ ات ء دمی بهر انت", "ء دسمبرء ماہ انت،چہ چینء چست بوتگیں کوڈ کرونا وائرس ء گوات کشان ایرانء شھر قمء سر بیت کہ چمئے راہء دیم ء گوں بلوچستان ء کنت", # Add more sentences as needed ] # Tokenize sentences for sentence in sentences: encoded = tokenizer.encode(sentence) print(f"Original: {sentence}\nEncoded: {encoded.ids}\n")