Spaces:
Runtime error
Runtime error
Update app.py
Browse files
app.py
CHANGED
@@ -95,22 +95,26 @@ def conversar_con_colmena(mensaje):
|
|
95 |
datos_relevantes = filtrar_datos_por_pregunta(mensaje.lower(), datos)
|
96 |
|
97 |
contexto = f"Datos actuales de la colmena: {datos_relevantes}\nUsuario: {mensaje}\nColmena:"
|
98 |
-
inputs = tokenizer(contexto, return_tensors="pt").to(
|
99 |
|
|
|
100 |
|
101 |
with torch.no_grad():
|
102 |
output = model.generate(
|
103 |
**inputs,
|
104 |
max_length=200,
|
105 |
-
do_sample=True,
|
106 |
top_p=0.9
|
107 |
)
|
108 |
-
|
109 |
respuesta = tokenizer.decode(output[0], skip_special_tokens=True)
|
|
|
|
|
110 |
memory.save_context({"input": mensaje}, {"output": respuesta})
|
111 |
|
112 |
return respuesta
|
113 |
|
|
|
114 |
iface = gr.Interface(
|
115 |
fn=conversar_con_colmena,
|
116 |
inputs="text",
|
|
|
95 |
datos_relevantes = filtrar_datos_por_pregunta(mensaje.lower(), datos)
|
96 |
|
97 |
contexto = f"Datos actuales de la colmena: {datos_relevantes}\nUsuario: {mensaje}\nColmena:"
|
98 |
+
inputs = tokenizer(contexto, return_tensors="pt").to(device)
|
99 |
|
100 |
+
print(f"🔄 Enviando entrada al modelo: {contexto}") # 👈 Agrega este print para ver el contexto en consola
|
101 |
|
102 |
with torch.no_grad():
|
103 |
output = model.generate(
|
104 |
**inputs,
|
105 |
max_length=200,
|
106 |
+
do_sample=True,
|
107 |
top_p=0.9
|
108 |
)
|
109 |
+
|
110 |
respuesta = tokenizer.decode(output[0], skip_special_tokens=True)
|
111 |
+
print(f"✅ Respuesta generada por la IA: {respuesta}") # 👈 Agrega este print para ver la respuesta generada
|
112 |
+
|
113 |
memory.save_context({"input": mensaje}, {"output": respuesta})
|
114 |
|
115 |
return respuesta
|
116 |
|
117 |
+
|
118 |
iface = gr.Interface(
|
119 |
fn=conversar_con_colmena,
|
120 |
inputs="text",
|