alex-abb commited on
Commit
b15d0ab
·
verified ·
1 Parent(s): c7c5ea0

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +10 -15
app.py CHANGED
@@ -1,36 +1,30 @@
1
  from transformers import pipeline, Conversation
2
  import gradio as gr
3
  import os
4
- import spaces
5
-
6
-
7
-
8
-
9
-
10
 
11
  # Charger le modèle GPT de Hugging Face
12
  model_id = "deepseek-ai/deepseek-llm-7b-chat"
13
  pipe = pipeline("text-generation", model=model_id)
14
 
15
  # Consigne que le modèle suivra pour chaque chat
16
- system_message = "You'r a feeling analyzert "
17
-
18
-
19
- @spaces.GPU
20
 
 
21
  # Fonction pour générer une réponse à partir du message de l'utilisateur
22
  def generate_response(user_message, history):
23
  # Ajouter le message système au début de l'historique des messages
24
  messages = [{"role": "system", "content": system_message}] + [{"role": "user", "content": user_message}]
25
 
26
- # Préparer les entrées pour le modèle
27
  conversation = Conversation()
28
- for past_user_input, past_bot_response in history:
29
  conversation.add_user_input(past_user_input)
30
  conversation.append_response(past_bot_response)
31
-
 
32
  conversation.add_user_input(user_message)
33
-
34
  # Générer une réponse
35
  result = pipe(conversation)
36
  response = result[0]['generated_text']
@@ -47,4 +41,5 @@ iface = gr.Interface(
47
  live=True,
48
  )
49
 
50
- gr.ChatInterface(generate_response).launch()
 
 
1
  from transformers import pipeline, Conversation
2
  import gradio as gr
3
  import os
4
+ import spaces
 
 
 
 
 
5
 
6
  # Charger le modèle GPT de Hugging Face
7
  model_id = "deepseek-ai/deepseek-llm-7b-chat"
8
  pipe = pipeline("text-generation", model=model_id)
9
 
10
  # Consigne que le modèle suivra pour chaque chat
11
+ system_message = "You are a feeling analyzer."
 
 
 
12
 
13
+ @spaces.GPU
14
  # Fonction pour générer une réponse à partir du message de l'utilisateur
15
  def generate_response(user_message, history):
16
  # Ajouter le message système au début de l'historique des messages
17
  messages = [{"role": "system", "content": system_message}] + [{"role": "user", "content": user_message}]
18
 
19
+ # Créer une conversation avec l'historique des messages
20
  conversation = Conversation()
21
+ for past_user_input, past_bot_response in history:
22
  conversation.add_user_input(past_user_input)
23
  conversation.append_response(past_bot_response)
24
+
25
+ # Ajouter le nouveau message de l'utilisateur
26
  conversation.add_user_input(user_message)
27
+
28
  # Générer une réponse
29
  result = pipe(conversation)
30
  response = result[0]['generated_text']
 
41
  live=True,
42
  )
43
 
44
+ iface.launch()
45
+