Spaces:
Running
Running
Create fefehfei.py (#7)
Browse files- Create fefehfei.py (37fd60469ba09c4c3787dfc544470149f8dc947b)
Co-authored-by: Divanpour <Fariddvp@users.noreply.huggingface.co>
- fefehfei.py +124 -0
fefehfei.py
ADDED
@@ -0,0 +1,124 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
import gradio as gr
|
2 |
+
import openai
|
3 |
+
import fitz # PyMuPDF
|
4 |
+
import torch
|
5 |
+
from transformers import pipeline, BloomForCausalLM, BloomTokenizerFast
|
6 |
+
from huggingface_hub import login
|
7 |
+
|
8 |
+
import os
|
9 |
+
|
10 |
+
hf_api_key = os.getenv("HF_API_KEY")
|
11 |
+
login(token=hf_api_key)
|
12 |
+
|
13 |
+
# Set OpenAI and Hugging Face API keys
|
14 |
+
openai.api_key = "sk-1E6ExsyFb-cdU8jPNDP1dsEq_ra_bazU-EXQZQ86pJT3BlbkFJ4zURsV0t--3qNM7A-P57NUqZIBosrL7POwzpjR5EQA"
|
15 |
+
|
16 |
+
# Initialize the Gemma model
|
17 |
+
gemma_pipe = pipeline(
|
18 |
+
"text-generation",
|
19 |
+
model="google/gemma-2-2b-it",
|
20 |
+
model_kwargs={"torch_dtype": torch.bfloat16},
|
21 |
+
device="cpu"
|
22 |
+
)
|
23 |
+
|
24 |
+
# Initialize the Bloom model
|
25 |
+
bloom_model = BloomForCausalLM.from_pretrained("bigscience/bloom-560m")
|
26 |
+
bloom_tokenizer = BloomTokenizerFast.from_pretrained("bigscience/bloom-560m")
|
27 |
+
|
28 |
+
def extract_text_from_pdf(pdf_file):
|
29 |
+
document = fitz.open(pdf_file)
|
30 |
+
text = ""
|
31 |
+
for page_num in range(len(document)):
|
32 |
+
page = document.load_page(page_num)
|
33 |
+
text += page.get_text()
|
34 |
+
return text
|
35 |
+
|
36 |
+
def evaluate_with_gpt(pdf_file, job_description):
|
37 |
+
resume_text = extract_text_from_pdf(pdf_file)
|
38 |
+
|
39 |
+
keywords = "وضعیت خدمت سربازی، سن، محل سکونت، محدوده حقوق پرداختی، میزان سابقه کار مدیریتی، میزان سابقه کار مرتبط با گروه شغلی مشابه، میزان سابقه کار در صنعت، میزان تحصیلات، مهارت زبان، مهارت های نرم افزاری"
|
40 |
+
|
41 |
+
prompt = f"""
|
42 |
+
به عنوان یک تحلیلگر با تجربه سیستم ردیابی متقاضی (ATS)، نقش شما شامل ارزیابی رزومه نسبت به شرح شغل و کلمات کلیدی مشخصی است.
|
43 |
+
لطفاً رزومه فرد را با در نظر گرفتن کلمات کلیدی تعیین شده مطابقت دهید و درصد تطابق را بر اساس معیارهای کلیدی و همچنین تعداد کلمات کلیدی گمشده و منطبق محاسبه کنید.
|
44 |
+
|
45 |
+
ارزیابی را بر اساس دقیقا این کلمات کلیدی {keywords} محاسبه کن.
|
46 |
+
شرح شغل: {job_description}
|
47 |
+
رزومه: {resume_text}
|
48 |
+
|
49 |
+
من پاسخ را در یک رشته با ساختار زیر میخواهم:
|
50 |
+
{{"تطابق شرح شغل با رزومه فرد ":"%"، "تعداد کلمات کلیدی غیر منطبق ":""، "تعداد کلمات کلیدی منطبق ":""}}
|
51 |
+
"""
|
52 |
+
|
53 |
+
try:
|
54 |
+
response = openai.ChatCompletion.create(
|
55 |
+
model="gpt-4o",
|
56 |
+
messages=[
|
57 |
+
{"role": "system", "content": "You are a helpful assistant."},
|
58 |
+
{"role": "user", "content": prompt}
|
59 |
+
],
|
60 |
+
temperature=0
|
61 |
+
)
|
62 |
+
return response.choices[0].message['content']
|
63 |
+
except Exception as e:
|
64 |
+
return f"Error during resume evaluation: {e}"
|
65 |
+
|
66 |
+
def evaluate_with_gemma(pdf_file, job_description):
|
67 |
+
resume_text = extract_text_from_pdf(pdf_file)
|
68 |
+
|
69 |
+
keywords = "وضعیت خدمت سربازی، سن، محل سکونت، محدوده حقوق پرداختی، میزان سابقه کار مدیریتی، میزان سابقه کار مرتبط با گروه شغلی مشابه، میزان سابقه کار در صنعت، میزان تحصیلات، مهارت زبان، مهارت های نرم افزاری"
|
70 |
+
|
71 |
+
prompt = f"""
|
72 |
+
به عنوان یک تحلیلگر با تجربه سیستم ردیابی متقاضی (ATS)، نقش شما شامل ارزیابی رزومه نسبت به شرح شغل و کلمات کلیدی مشخصی است.
|
73 |
+
لطفاً رزومه فرد را با در نظر گرفتن کلمات کلیدی تعیین شده مطابقت دهید و درصد تطابق را بر اساس معیارهای کلیدی و همچنین تعداد کلمات کلیدی گمشده و منطبق محاسبه کنید.
|
74 |
+
|
75 |
+
ارزیابی را بر اساس دقیقا این کلمات کلیدی {keywords} محاسبه کن.
|
76 |
+
شرح شغل: {job_description}
|
77 |
+
رزومه: {resume_text}
|
78 |
+
|
79 |
+
من پاسخ را در یک رشته با ساختار زیر میخواهم:
|
80 |
+
{{"تطابق شرح شغل با رزومه فرد ":"%"، "تعداد کلمات کلیدی غیر منطبق ":""، "تعداد کلمات کلیدی منطبق ":""}}
|
81 |
+
"""
|
82 |
+
|
83 |
+
outputs = gemma_pipe(prompt, max_new_tokens=256)
|
84 |
+
return outputs[0]["generated_text"].strip()
|
85 |
+
|
86 |
+
def evaluate_with_bloom(pdf_file, job_description):
|
87 |
+
resume_text = extract_text_from_pdf(pdf_file)
|
88 |
+
|
89 |
+
keywords = "وضعیت خدمت سربازی، سن، محل سکونت، محدوده حقوق پرداختی، میزان سابقه کار مدیریتی، میزان سابقه کار مرتبط با گروه شغلی مشابه، میزان سابقه کار در صنعت، میزان تحصیلات، مهارت زبان، مهارت های نرم افزاری"
|
90 |
+
|
91 |
+
prompt = f"""
|
92 |
+
به عنوان یک تحلیلگر با تجربه سیستم ردیابی متقاضی (ATS)، نقش شما شامل ارزیابی رزومه نسبت به شرح شغل و کلمات کلیدی مشخصی است.
|
93 |
+
لطفاً رزومه فرد را با در نظر گرفتن کلمات کلیدی تعیین شده مطابقت دهید و درصد تطابق را بر اساس معیارهای کلیدی و همچنین تعداد کلمات کلیدی گمشده و منطبق محاسبه کنید.
|
94 |
+
|
95 |
+
ارزیابی را بر اساس دقیقا این کلمات کلیدی {keywords} محاسبه کن.
|
96 |
+
شرح شغل: {job_description}
|
97 |
+
رزومه: {resume_text}
|
98 |
+
|
99 |
+
من پاسخ را در یک رشته با ساختار زیر میخواهم:
|
100 |
+
{{"تطابق شرح شغل با رزومه فرد ":"%"، "تعداد کلمات کلیدی غیر منطبق ":""، "تعداد کلمات کلیدی منطبق ":""}}
|
101 |
+
"""
|
102 |
+
|
103 |
+
inputs = bloom_tokenizer(prompt, return_tensors="pt")
|
104 |
+
outputs = bloom_model.generate(inputs["input_ids"], max_length=2000)
|
105 |
+
return bloom_tokenizer.decode(outputs[0], skip_special_tokens=True).strip()
|
106 |
+
|
107 |
+
def evaluate_all_models(pdf_file, job_description):
|
108 |
+
gpt_result = evaluate_with_gpt(pdf_file, job_description)
|
109 |
+
gemma_result = evaluate_with_gemma(pdf_file, job_description)
|
110 |
+
bloom_result = evaluate_with_bloom(pdf_file, job_description)
|
111 |
+
return f"GPT-4o Result:\n{gpt_result}\n\nGemma Result:\n{gemma_result}\n\nBloom Result:\n{bloom_result}"
|
112 |
+
|
113 |
+
iface = gr.Interface(
|
114 |
+
fn=lambda pdf, jd, model: evaluate_with_gpt(pdf, jd) if model == "GPT-4o" else evaluate_with_gemma(pdf, jd) if model == "Gemma" else evaluate_with_bloom(pdf, jd) if model == "Bloom" else evaluate_all_models(pdf, jd),
|
115 |
+
inputs=[
|
116 |
+
gr.File(label="Upload Resume PDF"),
|
117 |
+
gr.Textbox(lines=10, label="Job Description"),
|
118 |
+
gr.Radio(choices=["GPT-4o", "Gemma", "Bloom", "All"], label="Choose Model")
|
119 |
+
],
|
120 |
+
outputs="text",
|
121 |
+
title="Resume Evaluator"
|
122 |
+
)
|
123 |
+
|
124 |
+
iface.launch()
|