sekerlipencere commited on
Commit
4bd6a95
1 Parent(s): 9758610

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +320 -3
README.md CHANGED
@@ -1,3 +1,320 @@
1
- ---
2
- license: apache-2.0
3
- ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: apache-2.0
3
+ language:
4
+ - tr
5
+ ---
6
+
7
+ # 🚀 zynpdata-zynp_ai-teknofest: Türkiye'nin En Büyük Açık Kaynaklı Türkçe Veri Seti
8
+
9
+ <img src="https://i.imgur.com/1JQlntm.jpg" alt="zynpdata-zynp_ai-teknofest" width="200" height="200">
10
+
11
+ [![Version](https://img.shields.io/badge/version-1.0.0-blue.svg)](https://semver.org)
12
+ [![License](https://img.shields.io/badge/License-MIT-yellow.svg)](https://opensource.org/licenses/MIT)
13
+ [![Build Status](https://img.shields.io/badge/build-passing-brightgreen.svg)](https://github.com/sekerlipencere/zynpdata-zynp_ai-teknofest)
14
+
15
+ ## 📊 Proje Tanımı
16
+
17
+ Türkiye'nin en büyük, en çok indexlenen, en çok üyeye sahip olan, en çok anlık aktiviteye sahip ve en popüler forumu Technopat'tan kazınmış ve Teknofest 2024 Doğal Dil İşleme Yarışması kapsamında oluşturulmuş, tamamen Türkçe ve açık kaynaklı en büyük veri setidir.Yaklaşık 3 milyon konu ve 21 milyon yanıt içeren 7GB'lık bu veri seti, Türkçe NLP ve LLM projeleri için kapsamlı bir kaynak sağlar.
18
+
19
+ ## 🌟 Neden zynpdata?
20
+
21
+ - **Benzersiz İçerik**: Technopat forumundan elde edilen gerçek insanlar tarafından yazılmış 30'dan fazla katagoride veri içerir.
22
+ - **Geniş Kapsam**: Teknolojiden günlük yaşama kadar çeşitli konuları içerir.
23
+ - **Büyük Ölçek**: 3 milyon konu ve 21 milyon cevap ile Türkçe NLP ve LLM model çalışmaları için eşsiz bir kaynaktır.
24
+ - **Güncel**: Türkiye'nin en aktif forumlarından biri olan Technopat'tan elde edilen güncel veriler ve içerir.
25
+ - **Çeşitlilik**: Farklı yazım stilleri, jargon ve diyalektler içerir aynı zamanda 2012'den günümüze kadar çeşitli veriler içerir.
26
+
27
+ ## 💡 Kullanım Alanları
28
+
29
+ - Türkçe Doğal Dil İşleme (NLP) modellerinin eğitimi:
30
+ - Dil modelleri (LLM) için fine-tuning: Özellikle LLM modellerinin finetunungi için mükemmel doğrulukta saf bilgi sunar.Dil modelleri, doğal dil işleme (NLP) alanında büyük önem taşır ve çeşitli görevler için kullanılabilir. Fine-tuning, bu modellerin belirli bir veri kümesi üzerinde özelleştirilerek performanslarının artırılmasını sağlar. "zynpdata-zynp_ai-teknofest" veri seti, dil modellerinin fine-tuning işlemleri için mükemmel bir kaynak sunar.
31
+ - Sentiment analizi ve konu modelleme çalışmaları
32
+ - Türkçe soru-cevap sistemleri geliştirme
33
+ - Sosyal ağ analizi ve kullanıcı davranışı araştırmaları
34
+
35
+ ## 🚀 Veri Setini İndirme
36
+
37
+ [![Download](https://img.shields.io/badge/Download-v1.0.0-blue?style=for-the-badge&logo=github)](https://github.com/kullaniciadi/repo/releases/download/v1.0.0/dosya.zip)
38
+
39
+ ## 📈 Proje Aşamaları
40
+ ### Proje 3 aşamadan oluşmaktadır, *link toplama*, *İçerik Toplama*, *format düzeltme*:
41
+
42
+ ## 1. Link Toplama
43
+
44
+ Bu kısım, geniş kapsamlı bir web forumundan link toplama sürecini, karşılaşılan zorlukları ve geliştirilen çözüm stratejilerini detaylı bir şekilde incelemektedir. Çalışmanın temel amacı, forumda yer alan tüm konuların ve ilgili sayfa linklerinin eksiksiz bir şekilde toplanmasıdır. Bu süreçte karşılaşılan teknik ve operasyonel engeller, uygulanan yöntemler ve elde edilen sonuçlar ayrıntılı olarak ele alınmaktadır.
45
+
46
+
47
+
48
+ ### İlk Aşama: URL Toplama
49
+ Veri toplama sürecinin ilk aşamasında, hedef web sitesinin sitemap'i kullanılarak tüm konu başlıklarının URL'leri elde edilmiştir. Bu yaklaşım, forumda açılmış olan tüm konuların ana sayfalarına erişim sağlamıştır. Ancak, her konunun potansiyel olarak birden fazla sayfadan oluşması, veri toplama sürecini daha karmaşık hale getirmiştir.
50
+
51
+ ### İlk Yaklaşım: Web Parsing Yöntemi
52
+ İlk olarak, her konu sayfasındaki sayfa bağlantılarının web parsing yöntemi ile toplanması düşünülmüştür. Bu amaçla geliştirilen script şu işlevleri yerine getirmeyi hedeflemiştir:
53
+
54
+ - Konu sayfalarını analiz etme
55
+ - Sayfa numaralarını tespit etme
56
+ - İlgili tüm sayfa URL'lerini çıkarma ve kaydetme
57
+
58
+ Bu yaklaşım, işlevsel olmasına rağmen, yüksek işlemci gücüne (16 çekirdekli Intel işlemci) rağmen beklenenden çok daha uzun süre almıştır. Parsing işleminin yoğun kaynak kullanımı ve zaman alıcı doğası, bu yöntemin büyük ölçekli veri toplama için uygun olmadığını göstermiştir.
59
+
60
+ ### Alternatif Yaklaşım: Mesaj Sayısı Bazlı URL Oluşturma
61
+ Zaman kısıtlamaları ve verimsizlik nedeniyle, daha etkili bir yöntem geliştirme ihtiyacı doğmuştur. Bu doğrultuda yeni bir strateji oluşturulmuştur:
62
+
63
+ - Her konu sayfasındaki toplam mesaj sayısının çekilmesi
64
+ - Mesaj sayısına dayanarak toplam sayfa sayısının hesaplanması
65
+ - Hesaplanan sayfa sayısına göre URL'lerin programatik olarak oluşturulması
66
+
67
+ Bu yaklaşım için özel bir script geliştirilmiştir. Script'in temel işlevleri şunlardır:
68
+
69
+ - HTML verisinden mesaj sayısını çekme
70
+ - Sayfa sayısını hesaplama
71
+ - URL'leri oluşturma ve kaydetme
72
+
73
+ Geliştirilen script'e [Link Toplama Scripti](linktoplama.py) adresinden erişilebilmektedir.
74
+
75
+ ### Karşılaşılan Zorluklar ve Çözümler
76
+
77
+ Veri toplama sürecinde iki temel zorlukla karşılaşılmıştır:
78
+
79
+ ### Sunucu Kapasitesi Sınırlamaları
80
+ - Problem: Forum sunucusu, yoğun veri toplama trafiği nedeniyle zaman zaman 501 hataları vermiştir.
81
+ - Çözüm: Hata alınan URL'ler kaydedilmiş ve daha sonra yeniden işlenmiştir. Bu yaklaşım, veri kaybını önlemiş ancak toplam işlem süresini uzatmıştır.
82
+
83
+ ### Güvenlik Önlemleri: Cloudflare Doğrulaması
84
+ - Problem: Sürekli aynı IP adresinden yapılan istekler nedeniyle Cloudflare'ın "ben robot değilim" doğrulaması devreye girmiştir. Bu durum, yaklaşık her 12 saatlik çalışma periyodunun ardından 8 saatlik bir erişim engeli oluşturmuştur.
85
+ - Çözüm: Veri toplama süreci, bu kısıtlamayı dikkate alacak şekilde planlanmıştır. 12 saat aktif çalışma ve 8 saat bekleme şeklinde bir döngü oluşturulmuştur. Bu yaklaşım, sürecin verimliliğini düşürmüş ancak uzun vadeli veri toplama imkanı sağlamıştır.
86
+
87
+ ### Sonuçlar ve Analiz
88
+
89
+ Link toplama aşaması toplam bir hafta sürmüştür. Bu süreç sonunda yaklaşık 4.5 milyon URL başarıyla elde edilmiştir.
90
+
91
+
92
+ ## 2. İçerik Toplama:
93
+
94
+ ### 1. Giriş ve Planlama
95
+
96
+ Bu çalışmanın ilk aşamasında, elimizde bulunan 4.5 milyon linki verimli bir şekilde işlemek için doğru bir script geliştirilmesi gerekti. Bu amaçla, planlama süreci titizlikle yürütüldü. Planlama sürecinde, kullanılacak kütüphaneler ve veri çekme işleminin optimizasyonu üzerinde duruldu. Uzun süren düşünme ve analiz aşamasının ardından, BeautifulSoup kütüphanesini kullanarak forumların konu sayfalarındaki verileri çekme kararı alındı.
97
+
98
+ ### 2. Soru ve Cevapların İşlenmesi
99
+
100
+ Geliştirilen scriptin temel işlevi, forum sayfasından ilk olarak en üstte bulunan soru verisini çekmek ve bu veriyi JSON formatında saklamaktı. Ancak, bu işlemi gerçekleştirmeden önce, sorunun daha önce eklenip eklenmediği kontrol edildi. Bu kontrol mekanizması, veri tekrarını önleyerek işlem verimliliğini artırdı. Eğer soru daha önce eklenmişse, script doğrudan cevap çekme aşamasına geçmektedir. Bu sayede, işlem süresi kısaltılarak daha hızlı ve verimli bir veri işleme süreci sağlanmıştır.
101
+
102
+ ### 3. Ayrıntılı Soru ve Cevapların Çekilmesi
103
+
104
+ Script, yeni bir soru tespit edildiğinde, bu soruyu JSON formatında saklamakta ve ayrıntılı soru çekme işlemine geçmektedir. Ayrıntılı soru çekme işlemi, kullanıcının mesajlar kısmında yazdığı ilk mesajı almayı ve bu veriyi JSON formatındaki veri setine eklemeyi içermektedir. İlk mesajın ardından, forum sayfasında yer alan tüm cevaplar toplanmakta ve JSON verisine eklenmektedir. Bu aşama, forumlardaki tüm önemli verilerin kapsamlı bir şekilde toplanmasını sağlamaktadır.
105
+
106
+ ### 4. Link ve Atıf Bilgilerinin Eklenmesi
107
+
108
+ Veri çekme işleminin sonunda, her bir veri kaynağına ait sayfanın linki ve atıf bilgileri JSON verisine eklenmektedir. Bu işlem, verilerin kaynağını belirlemek ve referansları doğru şekilde tutmak açısından büyük önem taşımaktadır. Böylece, oluşturulan veri setinin doğruluğu ve güvenilirliği artırılmaktadır.
109
+
110
+ ### 5. Scriptin Kullanımı ve Zaman Çizelgesi
111
+
112
+ Geliştirilen script, topladığımız tüm linkler için veri çekme işlemini otomatik olarak gerçekleştirmektedir. Scriptin son haline şu bağlantıdan ulaşabilirsiniz: [İçerik Toplama Scripti](iceriktoplama.py). Bu işlemin tamamlanması yaklaşık iki hafta sürmüştür. Bu sürenin uzun olmasının temel sebebi, link toplama aşamasında karşılaşılan sorunlardır. Ancak, bu süreç sonucunda Türkiye'nin en büyük açık kaynaklı ve Türkçe veri seti oluşturulmuştur.
113
+
114
+ ### Sonuç
115
+
116
+ Bu çalışma, geniş ölçekli bir veri toplama sürecinin detaylı bir incelemesini sunmaktadır. Geliştirilen script, forum sayfalarından veri çekme, veri işleme ve saklama süreçlerini otomatikleştirerek, verilerin doğru ve etkili bir şekilde toplanmasını sağlamıştır. Sonuç olarak, oluşturulan veri seti, çeşitli araştırmalar ve analizler için önemli bir kaynak teşkil etmektedir. Bu süreç, büyük veri işleme projeleri için bir model oluşturmakta ve veri toplama işlemlerinde karşılaşılan zorlukların nasıl aşılabileceğine dair önemli ipuçları sunmaktadır.
117
+
118
+ ## 3. Veri Formatlama:
119
+
120
+ ### 3.1. Veri Formatlama İhtiyacı
121
+
122
+ Toplama aşamasında elde edilen verilerin işlenmesi ve analizi sırasında, JSON formatındaki verilerin daha etkili bir şekilde yönetilmesi ve kullanılabilmesi adına belirli bir formatlama sürecine ihtiyaç duyulmuştur. JSON formatı, verilerin saklanması ve taşınması için yaygın olarak kullanılan bir formattır. Ancak, büyük veri setleriyle çalışırken, JSONL (JSON Lines) formatı gibi alternatif formatlar daha uygun olabilir.
123
+
124
+ ### 3.2. JSON'dan JSONL'ye Dönüşüm
125
+
126
+ Bu aşamada, JSON formatındaki verileri JSONL formatına dönüşt��ren küçük bir script geliştirilmiştir. JSONL formatı, her satırın bir JSON nesnesi olduğu bir yapıdır. Bu format, büyük veri setlerini daha verimli bir şekilde işlemek ve analiz etmek için tercih edilmektedir. JSONL formatı, verilerin satır bazında işlenmesini kolaylaştırır ve büyük veri dosyalarının yönetimini daha etkili hale getirir.
127
+
128
+ #### 3.2.1. Scriptin İşlevi
129
+
130
+ Geliştirilen script, JSON formatındaki verileri satır bazında JSONL formatına dönüştürmektedir. Bu süreç, aşağıdaki adımları içermektedir:
131
+
132
+ 1. **Veri Okuma:** JSON formatındaki veriler, script tarafından okunur ve hafızaya alınır.
133
+ 2. **Dönüşüm İşlemi:** Her bir JSON nesnesi, ayrı bir satıra yerleştirilir ve JSONL formatında yeniden yapılandırılır.
134
+ 3. **Veri Yazma:** JSONL formatındaki veriler, yeni bir dosyaya yazılır. Bu dosya, veri işleme ve analiz aşamalarında kullanılmak üzere hazır hale getirilir.
135
+
136
+ #### 3.2.2. Dönüşümün Avantajları
137
+
138
+ - **Performans Artışı:** JSONL formatı, büyük veri setlerinin daha hızlı ve verimli bir şekilde işlenmesini sağlar.
139
+ - **Kolay Yönetim:** JSONL formatında her satır bağımsız bir JSON nesnesi olduğundan, veri setleri üzerinde arama ve filtreleme işlemleri daha hızlı gerçekleştirilebilir.
140
+ - **Veri Akışları:** JSONL formatı, veri akışları ve veri işleme pipeline'ları ile uyumlu çalışarak, veri mühendisliği ve analiz süreçlerini kolaylaştırır.
141
+
142
+ ### 3.3. Sonuç
143
+
144
+ Veri formatlama aşamasında, JSON formatındaki verilerin JSONL formatına dönüştürülmesi, veri yönetimi ve analizi süreçlerinde önemli bir iyileşme sağlamıştır. JSONL formatının sağladığı performans ve kullanım kolaylığı, büyük veri setlerinin etkili bir şekilde işlenmesini ve analiz edilmesini mümkün kılmıştır. Bu dönüşüm, veri setinin daha geniş uygulama alanlarına uyum sağlamasına ve veri işleme süreçlerinin optimizasyonuna katkıda bulunmuştur.
145
+
146
+
147
+ **İçerik Örneği:**
148
+
149
+ ```json
150
+ {
151
+ "soru": "CS:GO FPS nasıl arttırılır?",
152
+ "url": "https://www.technopat.net/sosyal/konu/cs-go-fps-nasil-arttirilir.1340872/page-2",
153
+ "ayrintili_soru": "kaonashii99 dedi:-Freq 144 -High -novid -Console -nosplash +cl_updaterate 128 +cl_cmdrate 128 +cl_interp 0 +Rate 128 +exec autoexec -lv +mat_queue_mode 2 +cl_forcepreload 1 -noforcemaatıfel -noforcemparms -noforcemspd(144 Hz monitör kullandığım için yazdım Hz değerine göre yazabilirsin bu kodu işine yarıyıcak başlatma seçenekleridir.)ParkControl – Tweak CPU Core Parking and Moreverdiğim linkten işlemcinin hızını maksimumda kullanabilirsin sorun yaratmaz işlemcinden alabiliceğin verimi almana yardım eder.Oyunun klasöründen oyununn exe dosyasını bulup özelliklerden uyumluluk sekmesinde tam ekran iyileştirmesini devre dışı bırak tikini seçin iyi bir FPS almanıza yardımcı olacaktır.800-600 de oynamanı öneririm bu arada 4.3 Black bar fark etmez.Konsoldan FPS Max 0 çekmeniz veriminizi daha artıracaktır.Genişletmek için tıkla...Sadece freq144'ümü monitör Hz'me göre ayarlayacagım?",
154
+ "cevaplar": [
155
+ "Hocam çoklu CPU kullanımını ayarlardan kapattıysanız aktif edince 4 5 FPS artar.",
156
+ "Evet sadece 144 ayarını 60 Hzdir büyük ihtimale monitörün 60 yazabilirsin.Fps_max 0 komutu.Ayarlardan ses ayarlarına gelip gelişmiş 3B ses işlemesi hayır yapıp.800-600 formatına çekip Black bar 4.3 boyutu fark etmez nasıl oynuyorsanız yapabilirsiniz.CS:GO görüntü ayarlarında Uber gölgelendirici kullan komutunu hayır yapmanız öneririm dikey eşitleme FPS'ini sabitler bundan dolayı yüksek FPS değerleri almana mani olur.Oyun açtıktan sonra görev yöneticisinden ayrıntılar sekmesinde csgo.exe komutuna sağ tık ile öncellik ayarlamadan yüksek seçmeniz ve Windows çalıştır (Windows+r) ile MSConfig ile açılan ekrandan ön yüklemeye gelerek gelişmiş seçenekler bastığınızda işlemci sayısına gelip kaç çekirdekliyse hepsini aktif etmeniz 1.den başlayıp aşağı kadar giden sayı değerini en yükseğini seçip tamama basmanız işinize yarayacaktır park üste verdiğim linkten park Control indirmeniz de lazım.Verdiğim başlatma komutlarını yapıp gerisi sistemin oyuna verdiği FPS değerleriyle uygun performansta en azından iyileşmeleriyle beraber oynayabilirsiniz oyun içi ayarlardan şahit olduğum 4.5 FPS demişler yaklaşık 30-40 FPS Boost yapmıştım üste verdiklerimi de yapmanızı öneririm."
157
+ ],
158
+ "atıf": "zynp_msg veri seti sekerlipencere tarafından hazırlanmıştır."
159
+ }
160
+
161
+ ```
162
+
163
+ ## 📈 Veri Seti Hakkında Analizler
164
+
165
+
166
+ ### 1. Genel Bakış
167
+
168
+ zynpdata veri seti, Türkiye'nin en büyük teknoloji forumu olan Technopat'tan elde edilmiş, geniş kapsamlı bir Türkçe veri setidir. Bu veri seti, doğal dil işleme, makine öğrenimi ve yapay zeka araştırmaları için zengin bir kaynak sunmaktadır.Özelikle türkçe llm model üretimi ve finetuning edilmesinde eşssiz bir kaynak sağlar.Veri seti her konu için toplam 5 adet veri başlığı içermektedir:
169
+ - Soru : Kullanıcın konu başlığında yazdığı metin buraya geliyor.
170
+ - Url : Konunun url'si buraya geliyor.
171
+ - Ayrıntılı Soru : Kullanıcının başlığı yazdıktan sonra konuya attığı ayrıntılı soru mesajı buraya geliyor.
172
+ - Cevaplar : Konuya verilmiş tüm cevaplar bu kısıma geliyor.
173
+ - Atıf : Veri seti ile ilgili atıf buraya geliyor.
174
+
175
+ ### 2. Boyut Ve Genel İstatistikler
176
+
177
+ | Metrik | Değer |
178
+ |--------|-------|
179
+ | Toplam Konu Sayısı | 3,094,199 |
180
+ | Toplam Cevap Sayısı | 21,000,000 |
181
+ | Toplam Kelime Sayısı | 769,457,477 |
182
+ | Toplam Dosya Boyutu | 7 GB |
183
+ | Toplam Karakter Sayısı | 5,934,600,344 |
184
+
185
+ ### Veri Setinin Tamamını İçeren Word Cloud
186
+ ![TechnoTürk Logo](https://i.imgur.com/LTO2EkH.png)
187
+ ---
188
+ ---
189
+ ### Veri Setinin Tamamını İçeren Kelime Frekans Grafiği
190
+ ![TechnoTürk Logo](https://i.imgur.com/H7P3BTc.png)
191
+
192
+
193
+ ### 3. İçerik Türleri ve Kaynakları
194
+
195
+ zynpdata veri seti, Technopat forumundan elde edilen çeşitli içerik türlerini kapsamaktadır:
196
+
197
+ 1. Forum Konuları: Kullanıcılar tarafından başlatılan tartışmalar
198
+ 2. Cevaplar: Konulara verilen yanıtlar
199
+ 3. Ürün İncelemeleri: Kullanıcıların teknolojik ürünler hakkındaki değerlendirmeleri
200
+ 4. Teknik Destek Soruları ve Yanıtları: Kullanıcıların teknik problemleri ve çözümleri
201
+ 5. Haberler ve Yorumlar: Teknoloji dünyasındaki gelişmeler ve kullanıcı yorumları
202
+ 6. Rehberler ve Öğreticiler: Çeşitli teknolojik konularda kullanıcı tarafından oluşturulan kılavuzlar
203
+
204
+ ### 4. Konu Dağılımı ve Çeşitliliği
205
+
206
+ zynpdata veri seti, geniş bir konu yelpazesini kapsamaktadır. Ana kategoriler ve yaklaşık yüzdeleri şu şekildedir:
207
+
208
+ 1. Donanım (%25)
209
+ - Bilgisayar Bileşenleri
210
+ - Dizüstü Bilgisayarlar
211
+ - Masaüstü Bilgisayarlar
212
+ - Mobil Cihazlar
213
+
214
+ 2. Yazılım (%20)
215
+ - İşletim Sistemleri
216
+ - Uygulama Yazılımları
217
+ - Programlama Dilleri
218
+ - Oyunlar
219
+
220
+ 3. İnternet ve Ağ Teknolojileri (%15)
221
+ - Web Hizmetleri
222
+ - Sosyal Medya
223
+ - Ağ Güvenliği
224
+
225
+ 4. Tüketici Elektroniği (%10)
226
+ - Akıllı Ev Cihazları
227
+ - Ses ve Görüntü Sistemleri
228
+ - Giyilebilir Teknolojiler
229
+
230
+ 5. Otomotiv Teknolojileri (%5)
231
+ - Elektrikli Araçlar
232
+ - Otonom Sürüş Sistemleri
233
+
234
+ 6. Bilim ve Teknoloji Haberleri (%10)
235
+ - Yeni Teknolojik Gelişmeler
236
+ - Bilimsel Keşifler
237
+
238
+ 7. Diğer (%15)
239
+ - Eğitim Teknolojileri
240
+ - Sağlık Teknolojileri
241
+ - Finans Teknolojileri
242
+ - Çevre Teknolojileri
243
+
244
+ ### 5. Veri Kalitesi ve Ön İşleme
245
+
246
+ - **Dil**: Tüm içerik Türkçedir.
247
+ - **Temizlik**: Ham veri temel bir temizleme işleminden geçirilmiştir:
248
+ - HTML etiketleri ve özel karakterler kaldırılmıştır.
249
+ - Kullanıcı adları ve e-posta adresleri anonimleştirilmiştir.
250
+ - Spam içerikler ve tekrar eden mesajlar ayıklanmıştır.
251
+ - **Normalize Edilmemiş Metin**: Yazım hataları, kısaltmalar ve internet jargonu korunmuştur, bu da gerçekçi NLP görevleri için idealdir.
252
+
253
+ ### 6. Zaman Aralığı
254
+
255
+ Veri seti, 2012 yılından 2024 yılına kadar olan forum içeriklerini kapsamaktadır. Bu geniş zaman aralığı, Türkçe'nin ve teknoloji dilinin zaman içindeki evrimini incelemek için fırsatlar sunmaktadır.
256
+
257
+ ### 7. Etik Hususlar ve Gizlilik
258
+
259
+ - Tüm kişisel bilgiler (kullanıcı adları, e-posta adresleri, IP adresleri) anonimleştirilmiştir.
260
+ - Veri seti, Technopat'ın kullanım şartlarına ve gizlilik politikasına uygun olarak oluşturulmuştur.
261
+ - Araştırmacılar, bu veri setini kullanırken etik kurallara uymakla yükümlüdür.
262
+
263
+
264
+ ### 8. Potansiyel Kullanım Alanları
265
+
266
+ 1. Türkçe Dil Modelleri Geliştirme
267
+ 2. Konu Modelleme ve Metin Sınıflandırma
268
+ 3. Duygu Analizi ve Fikir Madenciliği
269
+ 4. Soru-Cevap Sistemleri
270
+ 5. Metin Özetleme
271
+ 6. Teknoloji Trendleri Analizi
272
+ 7. Sosyal Ağ Analizi
273
+ 8. Kullanıcı Davranışı Modelleme
274
+
275
+ Bu kapsamlı veri seti, Türkçe doğal dil işleme alanında çalışan araştırmacılar ve geliştiriciler için benzersiz fırsatlar sunmaktadır.
276
+
277
+ ## Kaynaklar
278
+
279
+ * [Python ile Veri Kazıma(Web Scraping) Çalışması Medium](https://medium.com/kaveai/web-scraping-453e96a86195)
280
+ * [Python BeautifulSoup Modülü Sinan Erdinç](https://www.sinanerdinc.com/python-beautifulsoup-modulu)
281
+ * [Python ile Web Scraping: BeautifulSoup Kullanımı Medium](https://furkancakmaker.medium.com/python-ile-web-scraping-beautifulsoup-kullan%C4%B1m%C4%B1-5f0a3d88f)
282
+ * [Requests Ve Beauti̇fulsoup Modüllleri̇yle İnternetten Veri̇ Çekme Yazılım Topluluğu](https://yazilimtoplulugu.com/blog/2397-requests-ve-beautifulsoup-modullleriyle-internetten-veri-cekme)
283
+ * [Implementing Web Scraping in Python with BeautifulSoup GeeksforGeeks](https://www.geeksforgeeks.org/implementing-web-scraping-python-beautiful-soup/)
284
+ * [How to Use the JSON Module in Python – A Beginner's Guide](https://www.freecodecamp.org/news/how-to-use-the-json-module-in-python/)
285
+ * [How to Create a Telegram Bot using Python](https://www.freecodecamp.org/news/how-to-create-a-telegram-bot-using-python/)
286
+ * [Python Multiprocessing Tutorial](https://www.datacamp.com/tutorial/python-multiprocessing-tutorial)
287
+ * [Create JSONL with Python](https://stackoverflow.com/questions/57071390/create-jsonl-with-python)
288
+
289
+
290
+ ## 🤝 Katkıda Bulunma
291
+
292
+ Projeye katkıda bulunmak isterseniz, lütfen önce [CONTRIBUTING](CONTRIBUTING.md) dosyamızı kontrol edin.
293
+
294
+
295
+ ## 📄 Lisans
296
+
297
+ Bu proje Apache 2.0 Lisansı altında lisanslanmıştır. Detaylar için [LICENSE](LICENSE) dosyasına bakın.
298
+
299
+ ## 📚 Atıf
300
+
301
+ Bu veri setini çalışmalarınızda kullanıyorsanız, lütfen aşağıdaki gibi atıfta bulunun:
302
+
303
+ ```
304
+ @misc{zynpdata2024,
305
+ author = {sekerlipencere},
306
+ title = {zynpdata: Türkiye'nin En Büyük Açık Kaynaklı Türkçe Forum Veri Seti},
307
+ year = {2024},
308
+ publisher = {GitHub},
309
+ journal = {GitHub Repository},
310
+ howpublished = {\url{https://github.com/sekerlipencere/zynpdata-zynp_ai-teknofest}}
311
+ }
312
+ ```
313
+
314
+ ## 📞 İletişim
315
+
316
+ Sorularınız veya geri bildirimleriniz için lütfen [issues](https://github.com/sekerlipencere/zynpdata-zynp_ai-teknofest/issues) bölümünü kullanın veya [yusufd.polar@gmail.com](mailto:yusufd.polar@gmail.com) adresinden bize ulaşın.
317
+
318
+ ---
319
+
320
+ zynpdata-zynp_ai-teknofest ile NLP ve LLM çalışmalarınıza güç katın! 🚀🇹🇷