Gemma3-4B-TR

Google Gemma 3 4B temel modelinin Türkçe dil görevleri için özel olarak fine-tune edilmiş versiyonu.


🎯 Proje Hakkında

Bu projeyi tamamen tek başıma oluşturdum. Gemma 3 4B temel modelini Türkçe için fine-tune ederek Türkçe dil görevlerinde başarılı sonuçlar elde ettim. Sıfırdan model eğitimi değil, mevcut modelin Türkçe'ye adaptasyonu yapıldı.

Model mevcut haliyle bile Türkçe dil görevlerinde başarılı performans göstermektedir. Daha fazla epoch ve daha geniş veri seti ile eğitim yapılması durumunda performans önemli ölçüde artırılabilir.

💰 Destek Talebi

Modeli daha da geliştirmek ve kapsamlı eğitimler yapmak istiyorum ancak GPU kiralama maliyetleri oldukça yüksek. Bu konuda maddi destek veya sponsorluk desteği alabildiğim takdirde projeyi ileri seviyelere taşıyabilirim.

İletişim: afkfatih


📋 Model Detayları

  • Geliştirici: afkfatih
  • Temel Model: unsloth/gemma-3-4b-it-unsloth-bnb-4bit
  • Dil: Türkçe (Turkish)
  • Model Boyutu: 4B parametre
  • Fine-tuning Yöntemi: LoRA (Low-Rank Adaptation)
  • Eğitim Veri Seti: afkfatih/turkish-gemma-51k
  • Eğitim Örnekleri: 51,914
  • Eğitilen Parametreler: 14,901,248 / 3,895,164,416 (%0.38)

📜 Lisans ve Kullanım Hakları

Bu model Gemma Terms of Use koşullarına tabidir.

Kullanım İzinleri

Model üzerinde değişiklik yapılabilir - Fine-tuning ve modifikasyon mümkündür ✅ Üretilen çıktılar size aittir - Google, modelinizin ürettiği içerikler üzerinde hak iddia etmez ✅ Redistribution izni - Belirli koşullar altında yeniden dağıtım yapılabilir

Önemli Kısıtlamalar

⚠️ Gemma Prohibited Use Policy'ye uyulmalıdır:

  • Yasal olmayan, zararlı veya kötü niyetli aktiviteler için kullanılamaz
  • Çocuk istismarı, şiddet, terörizm gibi içerikler üretilemez
  • Telif hakkı ihlali yapılamaz
  • Spam, phishing, malware üretimi yasaktır
  • Cinsel içerik üretimi yasaktır (eğitim/bilimsel amaçlar hariç)
  • Yanıltıcı bilgi üretimi yasaktır

⚠️ Model dağıtımı koşulları:

  • Gemma Terms of Use belgesini eklemeniz gerekmektedir
  • Modifikasyon yaptığınızı açıkça belirtmelisiniz
  • Türev modeller de Gemma lisansına tabidir

⚠️ Google markaları izinsiz kullanılamaz

⚠️ Google, şartlara aykırı kullanımı uzaktan durdurma hakkına sahiptir

📖 Detaylı lisans bilgisi:

Not: Bu model Gemma 3 4B'nin fine-tuned türevi olduğu için yukarıdaki tüm koşullar geçerlidir.


🚀 Kurulum ve Kullanım

Gereksinimler

pip install unsloth transformers torch

Temel Kullanım

from unsloth import FastLanguageModel

# Modeli yükle
model, tokenizer = FastLanguageModel.from_pretrained(
    model_name="afkfatih/Gemma3-4B-TR",
    max_seq_length=2048,
    dtype=None,
    load_in_4bit=True,
)

# Inference modu
FastLanguageModel.for_inference(model)

# Mesaj hazırla
messages = [
    {
        "role": "user",
        "content": [{"type": "text", "text": "Merhaba! Türkiye'nin başkenti neresidir?"}]
    }
]

# Yanıt üret
inputs = tokenizer.apply_chat_template(
    messages,
    tokenize=True,
    add_generation_prompt=True,
    return_tensors="pt",
    return_dict=True
).to("cuda")

outputs = model.generate(
    **inputs,
    max_new_tokens=128,
    temperature=1.0,
    top_k=64,
    top_p=0.95,
    use_cache=True
)

yanit = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(yanit)

📊 Performans

Metrik Değer
Başlangıç Loss 2.46
Son Loss 1.50
Toplam Steps 1,623
Training Duration 1 epoch

💡 Kullanım Alanları

  • ✅ Türkçe chatbot ve asistan uygulamaları
  • ✅ Türkçe soru-cevap (Q&A) sistemleri
  • ✅ Türkçe metin üretimi (text generation)
  • ✅ Türkçe doğal dil anlama (NLU) görevleri
  • ✅ Müşteri hizmetleri otomasyonu
  • ✅ Eğitim teknolojileri

⚠️ Sınırlamalar

  • Tek epoch ile eğitilmiştir (daha fazla eğitimle performans artırılabilir)
  • 4-bit quantization kullanılmaktadır
  • Görüntü işleme yetenekleri bulunmamaktadır (sadece metin tabanlı)
  • Özellikle Türkçe için optimize edilmiştir

📖 Citation

Bu modeli kullanırsanız lütfen şu şekilde alıntılayın:

@misc{gemma3-4b-tr-2025,
  author = {afkfatih},
  title = {Gemma3-4B-TR: Turkish Fine-tuned Gemma 3 4B},
  year = {2025},
  publisher = {HuggingFace},
  url = {https://huggingface.co/afkfatih/Gemma3-4B-TR}
}

🙏 Teşekkürler

  • Google - Temel Gemma 3 modelini açık kaynak olarak sunduğu için
  • Unsloth - Verimli ve hızlı training framework'ü için (github.com/unslothai/unsloth)
  • HuggingFace - TRL kütüphanesi ve platform desteği için
  • Türkçe NLP Topluluğu - Destek ve motivasyon için

🔗 Linkler


🇹🇷 Made with ❤️ for Turkish NLP

Downloads last month
131
Safetensors
Model size
4B params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for afkfatih/Gemma3-4B-TR

Finetuned
(900)
this model
Quantizations
1 model

Dataset used to train afkfatih/Gemma3-4B-TR