Update README.md
Browse files
README.md
CHANGED
@@ -140,52 +140,6 @@ while True:
|
|
140 |
|
141 |
```python
|
142 |
import torch
|
143 |
-
from transformers import BertTokenizer, BertForSequenceClassification
|
144 |
-
from fastapi import FastAPI, Request
|
145 |
-
|
146 |
-
app = FastAPI()
|
147 |
-
|
148 |
-
model_path = 'BERT_v3/zehedz'
|
149 |
-
model = BertForSequenceClassification.from_pretrained(model_path, num_labels=3, problem_type="single_label_classification")
|
150 |
-
tokenizer = BertTokenizer.from_pretrained(model_path)
|
151 |
-
|
152 |
-
@app.post("/predict")
|
153 |
-
async def predict(request: Request):
|
154 |
-
data = await request.json()
|
155 |
-
text = data.get("text")
|
156 |
-
|
157 |
-
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
|
158 |
-
model.to(device)
|
159 |
-
model.eval()
|
160 |
-
|
161 |
-
encoding = tokenizer.encode_plus(
|
162 |
-
text,
|
163 |
-
add_special_tokens=True,
|
164 |
-
max_length=512,
|
165 |
-
return_token_type_ids=False,
|
166 |
-
truncation=True,
|
167 |
-
padding='max_length',
|
168 |
-
return_attention_mask=True,
|
169 |
-
return_tensors='pt',
|
170 |
-
)
|
171 |
-
|
172 |
-
input_ids = encoding['input_ids'].to(device)
|
173 |
-
attention_mask = encoding['attention_mask'].to(device)
|
174 |
-
|
175 |
-
with torch.no_grad():
|
176 |
-
outputs = model(input_ids=input_ids, attention_mask=attention_mask)
|
177 |
-
logits = outputs.logits
|
178 |
-
probs = F.softmax(logits, dim=1).cpu().numpy()[0]
|
179 |
-
|
180 |
-
labels = ['kbd_Cyrl', 'rus_Cyrl', 'krc_Cyrl']
|
181 |
-
result = {label: float(probs[i]) for i, label in enumerate(labels)}
|
182 |
-
|
183 |
-
return {"prediction": labels[torch.argmax(logits, dim=1).cpu().numpy()[0]], "probabilities": result}
|
184 |
```
|
185 |
|
186 |
-
### Преимущества модели
|
187 |
-
- **Высокая точность:** Точность модели на валидационном датасете достигает 100%.
|
188 |
-
- **Быстрая производительность:** Среднее время предсказания на GPU составляет всего 0.008 секунд, а на CPU — 0.05 секунд.
|
189 |
-
- **Простота интеграции:** Код можно легко использовать как в локальной среде, так и через API на Hugging Face.
|
190 |
-
|
191 |
Эта модель идеально подходит для задач, связанных с автоматическим определением языка текста в многоязычных системах и приложениях.
|
|
|
140 |
|
141 |
```python
|
142 |
import torch
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
143 |
```
|
144 |
|
|
|
|
|
|
|
|
|
|
|
145 |
Эта модель идеально подходит для задач, связанных с автоматическим определением языка текста в многоязычных системах и приложениях.
|