File size: 1,129 Bytes
f8841d9
 
6742db0
312d685
f8841d9
 
 
 
312d685
e501ed9
312d685
e501ed9
312d685
6742db0
 
f8841d9
e501ed9
f8841d9
e501ed9
6742db0
 
 
 
e501ed9
 
312d685
f8841d9
 
 
88e9730
312d685
e501ed9
f8841d9
 
 
 
e501ed9
 
6393f24
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
from transformers import BlenderbotTokenizer, BlenderbotForConditionalGeneration, pipeline
import gradio as gr
from textblob import TextBlob as tb

mname = "facebook/blenderbot-400M-distill"
model = BlenderbotForConditionalGeneration.from_pretrained(mname)
tokenizer = BlenderbotTokenizer.from_pretrained(mname)


def chat(mensaje, history): # Desde un mensaje en español

    history = history or []

    blob = tb(mensaje)
    MESSAGE = str(blob.translate(from_lang='es', to='en')) # Traduce el mensaje al inglés

    inputs = tokenizer(MESSAGE, return_tensors="pt") # Tokeniza el mensaje traducido
    reply_ids = model.generate(**inputs)

    response = tokenizer.batch_decode(reply_ids)[0] # Genera la respuesta (en inglés)

    blob_2 = tb(response)
    respuesta = str(blob_2.translate(from_lang='en', to='es'))[4:-5] # Traduce la respuesta al español

    history.append((mensaje, respuesta))
    
    return history, history

chatbot = gr.Chatbot().style(color_map=("red", "blue"))


demo = gr.Interface(
    chat,
    ["text", "state"],
    [chatbot, "state"],
    allow_flagging="never",
)

demo.launch(debug=True)