repd79 commited on
Commit
2131cc5
·
verified ·
1 Parent(s): 624bf57

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +14 -3
app.py CHANGED
@@ -9,16 +9,27 @@ model_name = "BSC-LT/ALIA-40b"
9
 
10
  # Cargar el tokenizador y el modelo
11
  tokenizer = AutoTokenizer.from_pretrained(model_name)
12
- model = AutoModelForCausalLM.from_pretrained(model_name)
 
 
 
13
 
14
 
15
 
16
  def generar_texto(entrada):
17
  # Tokenizar la entrada
18
- input_ids = tokenizer.encode(entrada, return_tensors="pt")
19
 
20
  # Generar texto con el modelo
21
- output = model.generate(input_ids, max_length=100, num_return_sequences=1)
 
 
 
 
 
 
 
 
22
 
23
  # Decodificar y retornar el texto generado
24
  texto_generado = tokenizer.decode(output[0], skip_special_tokens=True)
 
9
 
10
  # Cargar el tokenizador y el modelo
11
  tokenizer = AutoTokenizer.from_pretrained(model_name)
12
+ model = AutoModelForCausalLM.from_pretrained(model_name, device_map="cuda")
13
+
14
+ # Verificar en qué dispositivo está el modelo
15
+ print(f"Modelo cargado en: {model.device}")
16
 
17
 
18
 
19
  def generar_texto(entrada):
20
  # Tokenizar la entrada
21
+ input_ids = tokenizer.encode(entrada, return_tensors="pt").input_ids.to("cuda")
22
 
23
  # Generar texto con el modelo
24
+ output = model.generate(
25
+ input_ids,
26
+ max_length=100, # Reduce la longitud de salida
27
+ temperature=0.7, # Controla la aleatoriedad
28
+ top_p=0.9, # Reduce la búsqueda del modelo
29
+ num_return_sequences=1, # Evita múltiples respuestas simultáneas
30
+ do_sample=True # Sampling para rapidez
31
+ )
32
+
33
 
34
  # Decodificar y retornar el texto generado
35
  texto_generado = tokenizer.decode(output[0], skip_special_tokens=True)