add tokenizer
Browse files- special_tokens_map.json +1 -0
- tokenizer_config.json +1 -0
- vocab.json +1 -0
special_tokens_map.json
ADDED
@@ -0,0 +1 @@
|
|
|
|
|
1 |
+
{"bos_token": "<s>", "eos_token": "</s>", "unk_token": "[UNK]", "pad_token": "[PAD]"}
|
tokenizer_config.json
ADDED
@@ -0,0 +1 @@
|
|
|
|
|
1 |
+
{"unk_token": "[UNK]", "bos_token": "<s>", "eos_token": "</s>", "pad_token": "[PAD]", "do_lower_case": false, "word_delimiter_token": "|", "replace_word_delimiter_char": " ", "tokenizer_class": "Wav2Vec2CTCTokenizer"}
|
vocab.json
ADDED
@@ -0,0 +1 @@
|
|
|
|
|
1 |
+
{"0": " ", "1": "ا", "2": "آ", "3": "ب", "4": "پ", "5": "ت", "6": "ٹ", "7": "ث", "8": "ج", "9": "چ", "10": "ح", "11": "خ", "12": "د", "13": "ڈ", "14": "ذ", "15": "ر", "16": "ڑ", "17": "ز", "18": "ژ", "19": "س", "20": "ش", "21": "ص", "22": "ض", "23": "ط", "24": "ظ", "25": "ع", "26": "غ", "27": "ف", "28": "ق", "29": "ک", "30": "گ", "31": "ل", "32": "م", "33": "ن", "34": "ں", "35": "و", "36": "ہ", "37": "ھ", "38": "ء", "39": "ئ", "40": "ی", "41": "ے", "[UNK]": 42, "[PAD]": 43}
|