XA-vito commited on
Commit
b6f8f41
·
verified ·
1 Parent(s): 975e0b0

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +7 -3
app.py CHANGED
@@ -95,22 +95,26 @@ def conversar_con_colmena(mensaje):
95
  datos_relevantes = filtrar_datos_por_pregunta(mensaje.lower(), datos)
96
 
97
  contexto = f"Datos actuales de la colmena: {datos_relevantes}\nUsuario: {mensaje}\nColmena:"
98
- inputs = tokenizer(contexto, return_tensors="pt").to("cpu")
99
 
 
100
 
101
  with torch.no_grad():
102
  output = model.generate(
103
  **inputs,
104
  max_length=200,
105
- do_sample=True, # Permite respuestas más naturales
106
  top_p=0.9
107
  )
108
-
109
  respuesta = tokenizer.decode(output[0], skip_special_tokens=True)
 
 
110
  memory.save_context({"input": mensaje}, {"output": respuesta})
111
 
112
  return respuesta
113
 
 
114
  iface = gr.Interface(
115
  fn=conversar_con_colmena,
116
  inputs="text",
 
95
  datos_relevantes = filtrar_datos_por_pregunta(mensaje.lower(), datos)
96
 
97
  contexto = f"Datos actuales de la colmena: {datos_relevantes}\nUsuario: {mensaje}\nColmena:"
98
+ inputs = tokenizer(contexto, return_tensors="pt").to(device)
99
 
100
+ print(f"🔄 Enviando entrada al modelo: {contexto}") # 👈 Agrega este print para ver el contexto en consola
101
 
102
  with torch.no_grad():
103
  output = model.generate(
104
  **inputs,
105
  max_length=200,
106
+ do_sample=True,
107
  top_p=0.9
108
  )
109
+
110
  respuesta = tokenizer.decode(output[0], skip_special_tokens=True)
111
+ print(f"✅ Respuesta generada por la IA: {respuesta}") # 👈 Agrega este print para ver la respuesta generada
112
+
113
  memory.save_context({"input": mensaje}, {"output": respuesta})
114
 
115
  return respuesta
116
 
117
+
118
  iface = gr.Interface(
119
  fn=conversar_con_colmena,
120
  inputs="text",