Spaces:
Runtime error
Runtime error
oomarsaldivar
commited on
Commit
·
60ee93c
1
Parent(s):
f08c4f6
Upload app.py
Browse files
app.py
CHANGED
@@ -3,14 +3,14 @@
|
|
3 |
|
4 |
# # 1. Pre-procesamiento de datos
|
5 |
|
6 |
-
# In[
|
7 |
|
8 |
|
9 |
import cv2
|
10 |
import numpy as np
|
11 |
|
12 |
|
13 |
-
# In[
|
14 |
|
15 |
|
16 |
def redimensionar(imagenes,tamano):
|
@@ -21,7 +21,7 @@ def redimensionar(imagenes,tamano):
|
|
21 |
return imagenes_ajustadas
|
22 |
|
23 |
|
24 |
-
# In[
|
25 |
|
26 |
|
27 |
def contraste(imagenes, valor_contraste):
|
@@ -32,7 +32,7 @@ def contraste(imagenes, valor_contraste):
|
|
32 |
return imagenes_ajustadas
|
33 |
|
34 |
|
35 |
-
# In[
|
36 |
|
37 |
|
38 |
def rasgos(imagenes,width):
|
@@ -57,7 +57,7 @@ def rasgos(imagenes,width):
|
|
57 |
return imagenes_ajustadas
|
58 |
|
59 |
|
60 |
-
# In[
|
61 |
|
62 |
|
63 |
import gradio as gr
|
@@ -71,8 +71,13 @@ modelo2 = tf.keras.models.load_model('modeloIA_2.h5')
|
|
71 |
modelo3 = tf.keras.models.load_model('modeloIA_3.h5')
|
72 |
modelo4 = tf.keras.models.load_model('modeloIA_4.h5')
|
73 |
|
|
|
|
|
|
|
|
|
74 |
|
75 |
-
|
|
|
76 |
|
77 |
|
78 |
def ejecutar_modelo(imagen_app):
|
@@ -90,30 +95,49 @@ def ejecutar_modelo(imagen_app):
|
|
90 |
resultado1 = int (np.argmax (resultado1, axis=1))
|
91 |
|
92 |
resultado2 = modelo2.predict(imagen_temporal)
|
93 |
-
resultado2 =
|
94 |
|
95 |
resultado3 = modelo3.predict(imagen_temporal)
|
96 |
-
resultado3 =
|
97 |
|
98 |
resultado4 = modelo4.predict(imagen_temporal)
|
99 |
-
resultado4 =
|
100 |
|
101 |
clase1 = ['armonia', 'ausencia', 'contraste', 'ninguno']
|
102 |
clase2 =['ausencia', 'fragmentacion', 'ninguno', 'unidad']
|
103 |
clase3 = ['ausencia', 'equilibrio', 'inestabilidad', 'ninguno']
|
104 |
clase4 = ['agudeza', 'ausencia', 'difusividad', 'ninguno']
|
105 |
|
106 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
107 |
|
108 |
|
109 |
-
# In[
|
110 |
|
111 |
|
112 |
gui = gr.Interface (
|
113 |
fn = ejecutar_modelo,
|
114 |
inputs = gr.Image (),
|
115 |
-
outputs = [
|
116 |
-
|
|
|
|
|
|
|
117 |
)
|
118 |
|
119 |
gui.launch(inbrowser = True)
|
@@ -124,9 +148,3 @@ gui.launch(inbrowser = True)
|
|
124 |
|
125 |
|
126 |
|
127 |
-
|
128 |
-
# In[ ]:
|
129 |
-
|
130 |
-
|
131 |
-
|
132 |
-
|
|
|
3 |
|
4 |
# # 1. Pre-procesamiento de datos
|
5 |
|
6 |
+
# In[1]:
|
7 |
|
8 |
|
9 |
import cv2
|
10 |
import numpy as np
|
11 |
|
12 |
|
13 |
+
# In[2]:
|
14 |
|
15 |
|
16 |
def redimensionar(imagenes,tamano):
|
|
|
21 |
return imagenes_ajustadas
|
22 |
|
23 |
|
24 |
+
# In[3]:
|
25 |
|
26 |
|
27 |
def contraste(imagenes, valor_contraste):
|
|
|
32 |
return imagenes_ajustadas
|
33 |
|
34 |
|
35 |
+
# In[4]:
|
36 |
|
37 |
|
38 |
def rasgos(imagenes,width):
|
|
|
57 |
return imagenes_ajustadas
|
58 |
|
59 |
|
60 |
+
# In[130]:
|
61 |
|
62 |
|
63 |
import gradio as gr
|
|
|
71 |
modelo3 = tf.keras.models.load_model('modeloIA_3.h5')
|
72 |
modelo4 = tf.keras.models.load_model('modeloIA_4.h5')
|
73 |
|
74 |
+
modelo1v = tf.keras.models.load_model('modeloIA_1v.h5')
|
75 |
+
modelo2v = tf.keras.models.load_model('modeloIA_2v.h5')
|
76 |
+
modelo3v = tf.keras.models.load_model('modeloIA_3v.h5')
|
77 |
+
modelo4v = tf.keras.models.load_model('modeloIA_4v.h5')
|
78 |
|
79 |
+
|
80 |
+
# In[131]:
|
81 |
|
82 |
|
83 |
def ejecutar_modelo(imagen_app):
|
|
|
95 |
resultado1 = int (np.argmax (resultado1, axis=1))
|
96 |
|
97 |
resultado2 = modelo2.predict(imagen_temporal)
|
98 |
+
resultado2 = int (np.argmax (resultado2, axis=1))
|
99 |
|
100 |
resultado3 = modelo3.predict(imagen_temporal)
|
101 |
+
resultado3 = int (np.argmax (resultado3, axis=1))
|
102 |
|
103 |
resultado4 = modelo4.predict(imagen_temporal)
|
104 |
+
resultado4 = int (np.argmax (resultado4, axis=1))
|
105 |
|
106 |
clase1 = ['armonia', 'ausencia', 'contraste', 'ninguno']
|
107 |
clase2 =['ausencia', 'fragmentacion', 'ninguno', 'unidad']
|
108 |
clase3 = ['ausencia', 'equilibrio', 'inestabilidad', 'ninguno']
|
109 |
clase4 = ['agudeza', 'ausencia', 'difusividad', 'ninguno']
|
110 |
|
111 |
+
valor1 = ''
|
112 |
+
if clase1[resultado1] != 'ausencia' and clase1[resultado1] != 'ninguno':
|
113 |
+
valor1 = ': ' + str(int(np.clip(np.round(modelo1v.predict(imagen_temporal) + 1)[0][0],1,5)))
|
114 |
+
|
115 |
+
valor2 = ''
|
116 |
+
if clase2[resultado2] != 'ausencia' and clase2[resultado2] != 'ninguno':
|
117 |
+
valor2 = ': ' + str(int(np.clip(np.round(modelo2v.predict(imagen_temporal) + 1)[0][0],1,5)))
|
118 |
+
|
119 |
+
valor3 = ''
|
120 |
+
if clase3[resultado3] != 'ausencia' and clase3[resultado3] != 'ninguno':
|
121 |
+
valor3 = ': ' + str(int(np.clip(np.round(modelo3v.predict(imagen_temporal) + 1)[0][0],1,5)))
|
122 |
+
|
123 |
+
valor4 = ''
|
124 |
+
if clase4[resultado4] != 'ausencia' and clase4[resultado4] != 'ninguno':
|
125 |
+
valor4 = ': ' + str(int(np.clip(np.round(modelo4v.predict(imagen_temporal) + 1)[0][0],1,5)))
|
126 |
+
|
127 |
+
return clase1[resultado1] + valor1, clase2[resultado2] + valor2, clase3[resultado3] + valor3, clase4[resultado4] + valor4
|
128 |
|
129 |
|
130 |
+
# In[132]:
|
131 |
|
132 |
|
133 |
gui = gr.Interface (
|
134 |
fn = ejecutar_modelo,
|
135 |
inputs = gr.Image (),
|
136 |
+
outputs = [gr.Label(label='Contraste o armonía:'),
|
137 |
+
gr.Label(label='Fragmentación o unidad:'),
|
138 |
+
gr.Label(label='Inestabilidad o equilibrio:'),
|
139 |
+
gr.Label(label='Difusividad o agudeza:')],
|
140 |
+
title ='Evaluador de imágenes usando IA',
|
141 |
)
|
142 |
|
143 |
gui.launch(inbrowser = True)
|
|
|
148 |
|
149 |
|
150 |
|
|
|
|
|
|
|
|
|
|
|
|