Shako-n — Advanced Iraqi Dialect Finetuned Model

  • Developed by: anaspro
  • License: apache-2.0
  • Finetuned from model: unsloth/gemma-3n-E4B-it

Shako-n (شكو AI / Shako-n Model) is a specialized Iraqi Arabic LLM designed to produce natural, authentic Iraqi dialect with cultural understanding, humor, and accurate social expressions.

Built on Gemma-3n and optimized using Unsloth, it delivers fast training, high efficiency, and natural Iraqi-style responses for chatbots, assistants, and customer-service applications.

This model accurately understands Iraqi slang, social context, professional tone, and mixed Arabic-English messaging.


🧠 Model Overview

Shako-n specializes in:

  • Conversational Iraqi dialect (لهجة عراقية دارجة)
  • Real social expressions (ها شكو؟ شنو السالفة؟)
  • Polite and professional support responses
  • Mixed Arabic–English use
  • Understanding Iraqi culture, humor, and tone
  • Province-based variations in language

Designed for:

  • Iraqi AI chatbots
  • Iraqi virtual agents
  • Customer-service AI
  • Support centers & business tools
  • Iraqi content generation
  • Research on dialects

🚀 Key Features

1. Natural Iraqi Dialect

Generates smooth, real-life phrases like:

  • “ها حبي شكو ماكو؟”
  • “يمّه انت وين؟ صارلك يومين مختفي!”
  • “لا حبيبي مو هيچ، السالفة تختلف.”
  • “تره الموضوع كله بسيط، خل اوضحلك.”

2. Formal + Informal Tone Switching

Informal example:

  • “هلا بالغالي، شتريد اساعدك؟”

Semi-professional:

  • “صديقي العزيز، خليني اشوفلك المشكلة.”

Professional:

  • “عزيزي العميل، يرجى تزويدنا بالتفاصيل حتى نكدر نكمل الإجراء.”

3. Customer Support Quality

Optimized for:

  • Troubleshooting
  • Step-by-step instructions
  • Apology and clarification tone

Example:

  • “نعتذر منك على الإزعاج، خل نجرب نعيد تشغيل الخدمة ونشوف يتحسن الوضع.”

4. Cultural Understanding

Knows Iraqi cultural references:

  • “هاي سالفة من أيام البصرة القديمة.”
  • “الموصل إلها نكهة خاصة بالحجي.”

📦 Technical Details

Property Value
Base Model unsloth/gemma-3n-E4B-it
Architecture Gemma-3n
Model Size 4B parameter class
Context Window ~4096 tokens
Training Method SFT (Supervised Fine-Tuning)
Frameworks Unsloth + TRL
Languages Iraqi Arabic, Arabic (MSA), English

📚 Training Data

The finetuning dataset was fully customized and included:

1. Iraqi Informal Conversations

  • يوميات
  • سوالف أصدقاء
  • لهجة دارجة سريعة
  • كلمات مستعملة بالعراق يوميًا

Example lines used:

  • “هسه اجيت، وينكم بَس؟”
  • “تره الجو اليوم مطبيعي.”

2. Support / Call-Center Dialogues

  • Account issues
  • Network problems
  • Delivery, orders, complaints

Examples:

  • “تدلل، راح اتأكد من حسابك هسه.”
  • “نعتذر منك، السيرفر كان عليه ضغط.”

3. Iraqi Cultural Content

Includes:

  • المحافظات
  • الأمثال
  • العادات والتقاليد
  • اللهجات الفرعية

Examples:

  • “مثل ما يكولون: المايشوف من الغربال اعمى.”
  • “هذي أكلة مشهورة بالبصرة اسمها ‘مرق باجلا’.”

4. Mixed Arabic–English

To handle modern chat flow:

  • “اوكي حبي دزلي screenshot حتى اشوف.”
  • “Restart للراوتر وجرب بعد ٣ دقايق.”

5. JSONL Format

{"conversations":[
  {"from": "human", "value": "ها شكو اليوم؟"},
  {"from": "gpt", "value": "هلا حبي، الأمور تمام. انت شخبارك؟"}
]}
Downloads last month
36
Safetensors
Model size
8B params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for anaspro/Shako-iraqi-4B-it

Finetuned
(22)
this model
Quantizations
3 models

Space using anaspro/Shako-iraqi-4B-it 1