--- license: cc-by-sa-4.0 datasets: - procesaur/Vikipedija - procesaur/Vikizvornik - procesaur/ZNANJE - jerteh/SrpELTeC language: - sr ---

Word2Vec

обучаван над корпусом српског језика - 9.5 милијарди речи

међу датотекама се налазе два модела (CBOW и SkipGram варијанте)

trained on the Serbian language corpus - 9.5 billion words

There are two models among the files (CBOW and SkipGram variants)

```python from gensim.models import Word2Vec model = Word2Vec.load("TeslaW2V") ```
Editor
Mihailo Škorić
@procesaur

Истраживање jе спроведено уз подршку Фонда за науку Републике Србиjе, #7276, Text Embeddings – Serbian Language Applications – TESLA

This research was supported by the Science Fund of the Republic of Serbia, #7276, Text Embeddings - Serbian Language Applications - TESLA