XA-vito commited on
Commit
8fb66b6
·
verified ·
1 Parent(s): cbf9cd3

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +6 -4
app.py CHANGED
@@ -27,10 +27,11 @@ bnb_config = BitsAndBytesConfig(load_in_8bit=True) # Cargar en 8-bit para reduc
27
 
28
  model = AutoModelForCausalLM.from_pretrained(
29
  MODEL_NAME,
30
- device_map="auto",
31
- quantization_config=bnb_config, # Cargar modelo en 8-bit
32
  token=HF_TOKEN
33
- ).to(device)
 
34
 
35
 
36
  # Memoria conversacional
@@ -91,7 +92,8 @@ def conversar_con_colmena(mensaje):
91
  datos_relevantes = filtrar_datos_por_pregunta(mensaje.lower(), datos)
92
 
93
  contexto = f"Datos actuales de la colmena: {datos_relevantes}\nUsuario: {mensaje}\nColmena:"
94
- inputs = tokenizer(contexto, return_tensors="pt").to(device)
 
95
 
96
  with torch.no_grad():
97
  output = model.generate(
 
27
 
28
  model = AutoModelForCausalLM.from_pretrained(
29
  MODEL_NAME,
30
+ torch_dtype=torch.float32, # Forzar CPU con float32
31
+ device_map={"": "cpu"}, # Usar solo CPU
32
  token=HF_TOKEN
33
+ )
34
+
35
 
36
 
37
  # Memoria conversacional
 
92
  datos_relevantes = filtrar_datos_por_pregunta(mensaje.lower(), datos)
93
 
94
  contexto = f"Datos actuales de la colmena: {datos_relevantes}\nUsuario: {mensaje}\nColmena:"
95
+ inputs = tokenizer(contexto, return_tensors="pt").to("cpu")
96
+
97
 
98
  with torch.no_grad():
99
  output = model.generate(