File size: 1,090 Bytes
cfc20e5
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
from tokenizers import Tokenizer

tokenizer = Tokenizer.from_file('tokenizer.json')

# Sample Balochi sentences
sentences = [
     "تو کہاں گئے؟",
    "یہ کنغ پسند کنئے؟",
    "ء نشان ء ھم جن انت اے نشان لچھانی تہ ء پہ مردمی نامانی",
    "بلی شتگ کور ء اے کسہ ء دمی کارست اتمان ء کسہ ء دمی بهر انت انچو کہ من اول سرا گشتگ ات کہ اے کسہ دو بهر ء انت یکے نبشتہ کار ء وتی کیز ء بندانی سر گوستیں اے بهر ء اولی کسہ پلی مین ء کپتگ ات ء دمی بهر انت",
    "ء دسمبرء ماہ انت،چہ چینء چست بوتگیں کوڈ کرونا وائرس ء گوات کشان ایرانء شھر قمء سر بیت کہ چمئے راہء دیم ء گوں بلوچستان ء کنت",
    # Add more sentences as needed
]

# Tokenize sentences
for sentence in sentences:
    encoded = tokenizer.encode(sentence)
    print(f"Original: {sentence}\nEncoded: {encoded.ids}\n")