cenkersisman commited on
Commit
1da88ff
1 Parent(s): 1a72d93

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +41 -4
README.md CHANGED
@@ -10,9 +10,6 @@ widget:
10
  example_title: ingiltere'nin başkenti
11
  - text: 'italya''nın başkenti'
12
  example_title: italya'nın başkenti
13
-
14
- - text: 'ne kadar'
15
- example_title: ne kadar
16
  - text: 'hayatın anlamı'
17
  example_title: hayatın anlamı
18
  - text: 'saint-joseph'
@@ -23,4 +20,44 @@ widget:
23
  example_title: iklim değişikliği
24
  language:
25
  - tr
26
- ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
10
  example_title: ingiltere'nin başkenti
11
  - text: 'italya''nın başkenti'
12
  example_title: italya'nın başkenti
 
 
 
13
  - text: 'hayatın anlamı'
14
  example_title: hayatın anlamı
15
  - text: 'saint-joseph'
 
20
  example_title: iklim değişikliği
21
  language:
22
  - tr
23
+ ---
24
+ # Model
25
+
26
+ GPT-2 Türkçe Modeli
27
+
28
+ ### Model Açıklaması
29
+
30
+ GPT-2 Türkçe Modeli, Türkçe diline özelleştirilmiş olan GPT-2 mimarisi temel alınarak oluşturulmuş bir dil modelidir. Belirli bir başlangıç metni temel alarak insana benzer metinler üretme yeteneğine sahiptir ve geniş bir Türkçe metin veri kümesi üzerinde eğitilmiştir.
31
+ Modelin eğitimi için 900 milyon karakterli Vikipedi seti kullanılmıştır. Eğitim setindeki cümleler maksimum 128 tokendan (token = kelime kökü ve ekleri) oluşmuştur bu yüzden oluşturacağı cümlelerin boyu sınırlıdır..
32
+ Türkçe heceleme yapısına uygun tokenizer kullanılmış ve model 7.5 milyon adımda yaklaşık 12 epoch eğitilmiştir. Eğitim halen devam etmektedir.
33
+ Eğitim için 4GB hafızası olan Nvidia Geforce RTX 3050 GPU kullanılmaktadır.
34
+
35
+ ## Model Nasıl Kullanılabilir
36
+
37
+ ```python
38
+ # Model ile çıkarım yapmak için örnek kod
39
+
40
+ from transformers import GPT2Tokenizer, GPT2LMHeadModel
41
+
42
+ model_name = "cenkersisman/gpt2-turkish-128-token"
43
+ tokenizer = GPT2Tokenizer.from_pretrained(model_name)
44
+ model = GPT2LMHeadModel.from_pretrained(model_name)
45
+
46
+ prompt = "okyanusun derinliklerinde bulunan"
47
+ input_ids = tokenizer.encode(prompt, return_tensors="pt")
48
+ output = model.generate(input_ids, max_length=100, pad_token_id=tokenizer.eos_token_id)
49
+ generated_text = tokenizer.decode(output[0], skip_special_tokens=True)
50
+ print(generated_text)
51
+
52
+ ```
53
+ ## Eğitim Süreci Eğrisi
54
+
55
+ ![image/png](https://huggingface.co/cenkersisman/gpt2-turkish-900m/resolve/main/l3.png)
56
+
57
+ ![image/png](https://huggingface.co/cenkersisman/gpt2-turkish-900m/resolve/main/l4.png)
58
+ ## Sınırlamalar ve Önyargılar
59
+ Bu model, bir özyineli dil modeli olarak eğitildi. Bu, temel işlevinin bir metin dizisi alıp bir sonraki belirteci tahmin etmek olduğu anlamına gelir. Dil modelleri bunun dışında birçok görev için yaygın olarak kullanılsa da, bu çalışmayla ilgili birçok bilinmeyen bulunmaktadır.
60
+
61
+ Model, küfür, açık saçıklık ve aksi davranışlara yol açan metinleri içerdiği bilinen bir veri kümesi üzerinde eğitildi. Kullanım durumunuza bağlı olarak, bu model toplumsal olarak kabul edilemez metinler üretebilir.
62
+
63
+ Tüm dil modellerinde olduğu gibi, bu modelin belirli bir girişe nasıl yanıt vereceğini önceden tahmin etmek zordur ve uyarı olmaksızın saldırgan içerik ortaya çıkabilir. Sonuçları yayınlamadan önce hem istenmeyen içeriği sansürlemek hem de sonuçların kalitesini iyileştirmek için insanların çıktıları denetlemesini veya filtrelemesi önerilir.