Inan Ince commited on
Commit
f6f7c01
1 Parent(s): e55502b

Add application file12

Browse files
Files changed (1) hide show
  1. app.py +22 -41
app.py CHANGED
@@ -1,46 +1,27 @@
1
- from transformers import pipeline
2
  import gradio as gr
3
- import torch
4
-
5
- # GPU destekli mi kontrol et
6
- device = 0 if torch.cuda.is_available() else -1
7
-
8
- # Optimize edilmiş chatbot modeli
9
- chatbot_model = pipeline(
10
- "text2text-generation",
11
- model="facebook/blenderbot-400M-distill",
12
- device=device, # GPU varsa kullan
13
- max_length=128, # Yanıtın maksimum uzunluğunu sınırla
14
- num_beams=3, # Yanıt doğruluğunu optimize et
15
- early_stopping=True # Yanıt tamamlandığında dur
16
- )
17
-
18
- # Mesaj işleme fonksiyonu
19
- def inan_ai_chatbot(message, history):
20
- response = chatbot_model(message)
21
- return response[0]["generated_text"]
22
-
23
- # Gradio UI tasarımı
24
- with gr.Blocks(theme="compact") as demo:
25
- gr.Markdown("<h1 style='text-align: center; color: #4CAF50;'>İnan AI</h1>")
26
- gr.Markdown("<p style='text-align: center;'>Sohbet etmeye başlamak için aşağıdaki kutuya bir mesaj yazabilirsiniz.</p>")
27
 
28
- chatbot = gr.Chatbot(label="İnan AI Sohbet Ekranı")
 
 
 
 
 
 
 
 
 
 
 
 
 
 
29
  with gr.Row():
30
- msg = gr.Textbox(label="Mesajınızı yazın:", placeholder="Bir şeyler yazın...")
31
- send_btn = gr.Button("Gönder")
32
-
33
- def update_ui(message, chat_history):
34
- # Kullanıcı mesajını ekle
35
- chat_history = chat_history + [(message, "")]
36
- response = inan_ai_chatbot(message, chat_history)
37
- # Modelin yanıtını ekle
38
- chat_history[-1] = (message, response)
39
- return chat_history, ""
40
 
41
- msg.submit(update_ui, [msg, chatbot], [chatbot, msg])
42
- send_btn.click(update_ui, [msg, chatbot], [chatbot, msg])
43
-
44
- # Uygulamayı başlat
45
  demo.launch()
46
-
 
 
1
  import gradio as gr
2
+ from transformers import pipeline
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
3
 
4
+ # Java soruları için bir NLP modeli kullanın
5
+ model_name = "microsoft/codebert-base"
6
+ qa_pipeline = pipeline("question-answering", model=model_name, tokenizer=model_name)
7
+
8
+ # Java sorularını işleme fonksiyonu
9
+ def answer_java_question(question, context):
10
+ result = qa_pipeline({
11
+ "question": question,
12
+ "context": context # Java ile ilgili bilgiler burada yer alabilir
13
+ })
14
+ return result["answer"]
15
+
16
+ # Gradio UI
17
+ with gr.Blocks() as demo:
18
+ gr.Markdown("<h1 style='text-align: center;'>Java Q&A Assistant</h1>")
19
  with gr.Row():
20
+ question = gr.Textbox(label="Sorunuz", placeholder="Java ile ilgili sorunuz...")
21
+ context = gr.Textbox(label="Bağlam", placeholder="Java kodunuzu veya bağlamı buraya yapıştırabilirsiniz...", lines=5)
22
+ btn = gr.Button("Cevapla")
23
+ answer = gr.Textbox(label="Yanıt")
24
+
25
+ btn.click(answer_java_question, inputs=[question, context], outputs=answer)
 
 
 
 
26
 
 
 
 
 
27
  demo.launch()