alimboff commited on
Commit
98af1e4
1 Parent(s): 9dd219e

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +0 -46
README.md CHANGED
@@ -140,52 +140,6 @@ while True:
140
 
141
  ```python
142
  import torch
143
- from transformers import BertTokenizer, BertForSequenceClassification
144
- from fastapi import FastAPI, Request
145
-
146
- app = FastAPI()
147
-
148
- model_path = 'BERT_v3/zehedz'
149
- model = BertForSequenceClassification.from_pretrained(model_path, num_labels=3, problem_type="single_label_classification")
150
- tokenizer = BertTokenizer.from_pretrained(model_path)
151
-
152
- @app.post("/predict")
153
- async def predict(request: Request):
154
- data = await request.json()
155
- text = data.get("text")
156
-
157
- device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
158
- model.to(device)
159
- model.eval()
160
-
161
- encoding = tokenizer.encode_plus(
162
- text,
163
- add_special_tokens=True,
164
- max_length=512,
165
- return_token_type_ids=False,
166
- truncation=True,
167
- padding='max_length',
168
- return_attention_mask=True,
169
- return_tensors='pt',
170
- )
171
-
172
- input_ids = encoding['input_ids'].to(device)
173
- attention_mask = encoding['attention_mask'].to(device)
174
-
175
- with torch.no_grad():
176
- outputs = model(input_ids=input_ids, attention_mask=attention_mask)
177
- logits = outputs.logits
178
- probs = F.softmax(logits, dim=1).cpu().numpy()[0]
179
-
180
- labels = ['kbd_Cyrl', 'rus_Cyrl', 'krc_Cyrl']
181
- result = {label: float(probs[i]) for i, label in enumerate(labels)}
182
-
183
- return {"prediction": labels[torch.argmax(logits, dim=1).cpu().numpy()[0]], "probabilities": result}
184
  ```
185
 
186
- ### Преимущества модели
187
- - **Высокая точность:** Точность модели на валидационном датасете достигает 100%.
188
- - **Быстрая производительность:** Среднее время предсказания на GPU составляет всего 0.008 секунд, а на CPU — 0.05 секунд.
189
- - **Простота интеграции:** Код можно легко использовать как в локальной среде, так и через API на Hugging Face.
190
-
191
  Эта модель идеально подходит для задач, связанных с автоматическим определением языка текста в многоязычных системах и приложениях.
 
140
 
141
  ```python
142
  import torch
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
143
  ```
144
 
 
 
 
 
 
145
  Эта модель идеально подходит для задач, связанных с автоматическим определением языка текста в многоязычных системах и приложениях.