alex-abb commited on
Commit
48ba07e
·
verified ·
1 Parent(s): 3e84f43

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +10 -15
app.py CHANGED
@@ -1,18 +1,11 @@
1
- from transformers import pipeline, Conversation, ConversationalPipeline
2
  import gradio as gr
 
3
 
4
- import spaces
5
-
6
-
7
- @space.gpu
8
  # Charger le modèle GPT de Hugging Face
9
- # Use a pipeline as a high-level helper
 
10
 
11
- messages = [
12
- {"role": "user", "content": "Who are you?"},
13
- ]
14
- pipe = pipeline("text-generation", model="deepseek-ai/deepseek-llm-7b-chat")
15
- pipe(messages)
16
  # Consigne que le modèle suivra pour chaque chat
17
  system_message = "You are a helpful assistant that always responds in a friendly manner."
18
 
@@ -21,17 +14,19 @@ def generate_response(user_message, history):
21
  # Ajouter le message système au début de l'historique des messages
22
  messages = [{"role": "system", "content": system_message}] + [{"role": "user", "content": user_message}]
23
 
24
- # Créer une conversation avec l'historique des messages
25
  conversation = Conversation()
26
  for message in messages:
27
  if message["role"] == "user":
28
  conversation.add_user_input(message["content"])
29
  else:
30
  conversation.append_response(message["content"])
31
-
32
  # Générer une réponse
33
- result = chat_pipeline(conversation)
34
- response = result.generated_responses[-1]
 
 
35
  history.append((user_message, response))
36
  return history, response
37
 
 
1
+ from transformers import pipeline, Conversation
2
  import gradio as gr
3
+ import os
4
 
 
 
 
 
5
  # Charger le modèle GPT de Hugging Face
6
+ model_id = "deepseek-ai/deepseek-llm-7b-chat"
7
+ pipe = pipeline("text-generation", model=model_id)
8
 
 
 
 
 
 
9
  # Consigne que le modèle suivra pour chaque chat
10
  system_message = "You are a helpful assistant that always responds in a friendly manner."
11
 
 
14
  # Ajouter le message système au début de l'historique des messages
15
  messages = [{"role": "system", "content": system_message}] + [{"role": "user", "content": user_message}]
16
 
17
+ # Préparer les entrées pour le modèle
18
  conversation = Conversation()
19
  for message in messages:
20
  if message["role"] == "user":
21
  conversation.add_user_input(message["content"])
22
  else:
23
  conversation.append_response(message["content"])
24
+
25
  # Générer une réponse
26
+ result = pipe(conversation)
27
+ response = result[-1]['generated_text']
28
+
29
+ # Mettre à jour l'historique
30
  history.append((user_message, response))
31
  return history, response
32