Marcos12886 commited on
Commit
6d1143c
1 Parent(s): 5b24797

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +15 -186
app.py CHANGED
@@ -1,74 +1,13 @@
1
  import gradio as gr
2
- from huggingface_hub import InferenceClient
3
  import os
4
  from transformers import pipeline
5
  import numpy as np
6
- from model import SAMPLING_RATE, FEATURE_EXTRACTOR
7
 
8
- # modelo = "mixed-data"
9
- modelo = "cry-detector"
10
- pipe = pipeline(
11
- "audio-classification",
12
- model=f"distilhubert-finetuned-{modelo}",
13
- feature_extractor=FEATURE_EXTRACTOR,
14
- device="cuda",
15
- )
16
- token = os.getenv('HF_TOKEN')
17
- # client = InferenceClient("meta-llama/Meta-Llama-3-8B-Instruct", token=token)
18
- client = InferenceClient("mistralai/Mistral-Nemo-Instruct-2407", token=token)
19
-
20
- def respond(
21
- message,
22
- history: list[tuple[str, str]],
23
- system_message,
24
- max_tokens,
25
- temperature,
26
- top_p,
27
- ):
28
- messages = [{"role": "system", "content": system_message}]
29
- for val in history:
30
- if val[0]:
31
- messages.append({"role": "user", "content": val[0]})
32
- if val[1]:
33
- messages.append({"role": "assistant", "content": val[1]})
34
- messages.append({"role": "user", "content": message})
35
- response = ""
36
- for message in client.chat_completion(
37
- messages,
38
- max_tokens=max_tokens,
39
- stream=True,
40
- temperature=temperature,
41
- top_p=top_p,
42
- ):
43
- token = message.choices[0].delta.content
44
- response += token
45
- yield response
46
-
47
- my_theme = gr.themes.Soft(
48
- primary_hue="emerald",
49
- secondary_hue="green",
50
- neutral_hue="slate",
51
- text_size="sm",
52
- spacing_size="sm",
53
- font=[gr.themes.GoogleFont('Nunito'), 'ui-sans-serif', 'system-ui', 'sans-serif'],
54
- font_mono=[gr.themes.GoogleFont('Nunito'), 'ui-monospace', 'Consolas', 'monospace'],
55
- ).set(
56
- body_background_fill='*neutral_50',
57
- body_text_color='*neutral_600',
58
- body_text_size='*text_sm',
59
- embed_radius='*radius_md',
60
- shadow_drop='*shadow_spread',
61
- shadow_spread='*button_shadow_active'
62
- )
63
-
64
- def mostrar_pagina_1():
65
- return gr.update(visible=False), gr.update(visible=True)
66
-
67
- def mostrar_pagina_2():
68
- return gr.update(visible=False), gr.update(visible=True)
69
-
70
- def redirigir_a_pantalla_inicial():
71
- return gr.update(visible=True), gr.update(visible=False)
72
 
73
  def transcribe(audio):
74
  _, y = audio
@@ -79,123 +18,13 @@ def transcribe(audio):
79
  label = top_result["label"] # Extract the label from the top result
80
  return label
81
 
82
- with gr.Blocks(theme=my_theme) as demo:
83
- with gr.Column(visible=True, elem_id="pantalla-inicial") as pantalla_inicial:
84
- gr.HTML(
85
- """
86
- <style>
87
- @import url('https://fonts.googleapis.com/css2?family=Lobster&display=swap');
88
- @import url('https://fonts.googleapis.com/css2?family=Roboto&display=swap');
89
-
90
- h1 {
91
- font-family: 'Lobster', cursive;
92
- font-size: 5em !important;
93
- text-align: center;
94
- margin: 0;
95
- }
96
-
97
- .gr-button {
98
- background-color: #4CAF50 !important;
99
- color: white !important;
100
- border: none;
101
- padding: 15px 32px;
102
- text-align: center;
103
- text-decoration: none;
104
- display: inline-block;
105
- font-size: 16px;
106
- margin: 4px 2px;
107
- cursor: pointer;
108
- border-radius: 12px;
109
- }
110
-
111
- .gr-button:hover {
112
- background-color: #45a049;
113
- }
114
- h2 {
115
- font-family: 'Lobster', cursive;
116
- font-size: 3em !important;
117
- text-align: center;
118
- margin: 0;
119
- }
120
- p.slogan, h4, p, h3 {
121
- font-family: 'Roboto', sans-serif;
122
- text-align: center;
123
- }
124
- </style>
125
- <h1>Iremia</h1>
126
- <h4 style='text-align: center; font-size: 1.5em'>Tu aliado para el bienestar de tu bebé</h4>
127
- """
128
- )
129
- gr.Markdown(
130
- "<h4 style='text-align: left; font-size: 1.5em;'>¿Qué es Iremia?</h4>"
131
- )
132
- gr.Markdown(
133
- "<p style='text-align: left'>Iremia es un proyecto llevado a cabo por un grupo de estudiantes interesados en el desarrollo de modelos de inteligencia artificial, enfocados específicamente en casos de uso relevantes para ayudar a cuidar a los más pequeños de la casa.</p>"
134
- )
135
- gr.Markdown(
136
- "<h4 style='text-align: left; font-size: 1.5em;'>Nuestra misión</h4>"
137
- )
138
- gr.Markdown(
139
- "<p style='text-align: left'>Sabemos que la paternidad puede suponer un gran desafío. Nuestra misión es brindarles a todos los padres unas herramientas de última tecnología que los ayuden a navegar esos primeros meses de vida tan cruciales en el desarrollo de sus pequeños.</p>"
140
- )
141
- gr.Markdown(
142
- "<h4 style='text-align: left; font-size: 1.5em;'>¿Qué ofrece Iremia?</h4>"
143
- )
144
- gr.Markdown(
145
- "<p style='text-align: left'>Iremia ofrece dos funcionalidades muy interesantes:</p>"
146
- )
147
- gr.Markdown(
148
- "<p style='text-align: left'>Predictor: Con nuestro modelo de inteligencia artificial, somos capaces de predecir por qué tu hijo de menos de 2 años está llorando. Además, tendrás acceso a un asistente personal para consultar cualquier duda que tengas sobre el cuidado de tu pequeño.</p>"
149
- )
150
- gr.Markdown(
151
- "<p style='text-align: left'>Monitor: Nuestro monitor no es como otros que hay en el mercado, ya que es capaz de reconocer si un sonido es un llanto del bebé o no, y si está llorando, predice automáticamente la causa, lo cual te brindará la tranquilidad de saber siempre qué pasa con tu pequeño y te ahorrará tiempo y muchas horas de sueño.</p>"
152
- )
153
- with gr.Row():
154
- with gr.Column():
155
- gr.Markdown("<h2>Predictor</h2>")
156
- boton_pagina_1 = gr.Button("Prueba el predictor")
157
- gr.Markdown("<p>Descubre por qué llora tu bebé y resuelve dudas sobre su cuidado con nuestro Iremia assistant</p>")
158
- with gr.Column():
159
- gr.Markdown("<h2>Monitor</h2>")
160
- boton_pagina_2 = gr.Button("Prueba el monitor")
161
- gr.Markdown("<p>Un monitor inteligente que detecta si tu hijo está llorando y te indica el motivo antes de que puedas levantarte del sofá</p>")
162
- with gr.Column(visible=False) as pagina_1:
163
- with gr.Row():
164
- with gr.Column():
165
- gr.Markdown("<h2>Predictor</h2>")
166
- audio_input = gr.Audio(
167
- min_length=1.0,
168
- # max_length=10.0,
169
- format="wav",
170
- # type="numpy",
171
- label="Baby recorder"
172
- ),
173
- classify_btn = gr.Button("¿Por qué llora?")
174
- classification_output = gr.Textbox(label="Tu bebé llora por:")
175
- classify_btn.click(transcribe, inputs=audio_input, outputs=classification_output)
176
- with gr.Column():
177
- gr.Markdown("<h2>Assistant</h2>")
178
- system_message = "You are a Chatbot specialized in baby health and care."
179
- max_tokens = 512
180
- temperature = 0.7
181
- top_p = 0.95
182
- chatbot = gr.ChatInterface(
183
- respond,
184
- additional_inputs=[
185
- gr.State(value=system_message),
186
- gr.State(value=max_tokens),
187
- gr.State(value=temperature),
188
- gr.State(value=top_p)
189
- ],
190
- )
191
- gr.Markdown("Este chatbot no sustituye a un profesional de la salud. Ante cualquier preocupación o duda, consulta con tu pediatra.")
192
- boton_volver_inicio_1 = gr.Button("Volver a la pantalla inicial")
193
- boton_volver_inicio_1.click(redirigir_a_pantalla_inicial, inputs=None, outputs=[pantalla_inicial, pagina_1])
194
- with gr.Column(visible=False) as pagina_2:
195
- gr.Markdown("<h2>Monitor</h2>")
196
- gr.Markdown("Contenido de la Página 2")
197
- boton_volver_inicio_2 = gr.Button("Volver a la pantalla inicial")
198
- boton_volver_inicio_2.click(redirigir_a_pantalla_inicial, inputs=None, outputs=[pantalla_inicial, pagina_2])
199
- boton_pagina_1.click(mostrar_pagina_1, inputs=None, outputs=[pantalla_inicial, pagina_1])
200
- boton_pagina_2.click(mostrar_pagina_2, inputs=None, outputs=[pantalla_inicial, pagina_2])
201
- demo.launch()
 
1
  import gradio as gr
 
2
  import os
3
  from transformers import pipeline
4
  import numpy as np
5
+ from model import SAMPLING_RATE
6
 
7
+ token = os.getenv("HF_TOKEN")
8
+ modelo = "mixed-data"
9
+ # modelo = "cry-detector"
10
+ pipe = pipeline("audio-classification", model=f"A-POR-LOS-8000/distilhubert-finetuned-{modelo}", use_auth_token=token)
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
11
 
12
  def transcribe(audio):
13
  _, y = audio
 
18
  label = top_result["label"] # Extract the label from the top result
19
  return label
20
 
21
+ demo = gr.Interface(
22
+ transcribe,
23
+ gr.Audio(
24
+ min_length=1.0,
25
+ max_length=10.0,
26
+ format="wav",
27
+ ),
28
+ "text",
29
+ )
30
+ demo.launch()