zynpdata-zynp_ai-teknofest / iceriktoplama.py
sekerlipencere's picture
Create iceriktoplama.py
44e4bcd verified
raw
history blame
No virus
2.9 kB
import httpx
from bs4 import BeautifulSoup
import json
from concurrent.futures import ThreadPoolExecutor, as_completed
from tqdm import tqdm
import multiprocessing
import time
# URL'leri içeren txt dosyasının yolunu belirtin
file_path = '/content/url.txt'
# URL'leri txt dosyasından okuyun
with open(file_path, 'r') as file:
url_list = [line.strip() for line in file if line.strip()]
disclaimer = "'zynp_msgdata' veri seti 'sekerlipencere' tarafından hazırlanmıştır."
cpu_count = multiprocessing.cpu_count()
max_workers = cpu_count * 300 # İşlemci çekirdek sayısının 20 katı kadar iş parçacığı oluştur
def fetch_content(url):
try:
with httpx.Client(timeout=5) as client:
response = client.get(url)
response.raise_for_status()
return url, response.text
except Exception as e:
print(f"URL alınamadı: {url} - Hata: {e}")
return url, None
def process_content(url_content):
url, webpage = url_content
if webpage is None:
return None
try:
soup = BeautifulSoup(webpage, 'html.parser')
soru_div = soup.find('div', class_='p-title')
if soru_div:
soru = soru_div.get_text(strip=True)
ayrintili_soru_div = soup.find('div', class_='bbWrapper')
ayrintili_soru = ayrintili_soru_div.get_text(strip=True) if ayrintili_soru_div else ''
cevap_divs = soup.find_all('div', class_='bbWrapper')[1:]
cevaplar = [cevap.get_text(strip=True) for cevap in cevap_divs]
return {
'soru': soru,
'url': url,
'ayrintili_soru': ayrintili_soru,
'cevaplar': cevaplar,
'atıf': disclaimer
}
except Exception as e:
print(f"İçerik işlenirken hata oluştu: {url} - Hata: {e}")
return None
def write_to_json(result):
if result:
with open('sonuc.json', 'a', encoding='utf-8') as f:
json.dump(result, f, ensure_ascii=False, indent=4)
f.write('\n')
def main():
batch_size = 500 # Toplu işleme için isteklerin gruplanacağı boyut
with ThreadPoolExecutor(max_workers=max_workers) as executor:
for i in range(0, len(url_list), batch_size):
batch_urls = url_list[i:i+batch_size]
futures = [executor.submit(fetch_content, url) for url in batch_urls]
with tqdm(total=len(futures), desc="Toplam İşleniyor", unit="URL") as pbar:
for future in as_completed(futures):
url_content = future.result()
result = process_content(url_content)
write_to_json(result)
pbar.update(1)
if __name__ == "__main__":
start_time = time.time()
main()
end_time = time.time()
print(f"Toplam süre: {end_time - start_time:.2f} saniye")