joackoEsp commited on
Commit
c50fc17
verified
1 Parent(s): 1a72ef6

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +4 -6
app.py CHANGED
@@ -10,10 +10,8 @@ if "tokenizer" not in globals():
10
  tokenizer.pad_token = tokenizer.eos_token # 馃敼 Evita errores de atenci贸n
11
 
12
  if "model" not in globals():
13
- model = AutoModelForCausalLM.from_pretrained(
14
- model_name, torch_dtype=torch.float16
15
- )
16
- model.eval() # 馃敼 Reduce el consumo innecesario de memoria
17
 
18
  # Funci贸n exclusiva para humanizaci贸n de texto con enfoque en marketing
19
  def humanize_text(input_text):
@@ -33,9 +31,9 @@ def humanize_text(input_text):
33
  outputs = model.generate(
34
  inputs.input_ids,
35
  attention_mask=inputs.attention_mask,
36
- max_new_tokens=140, # 馃敼 Limita la cantidad de palabras generadas para mejorar la velocidad
37
  min_length=30, # 馃敼 Evita respuestas demasiado cortas
38
- do_sample=False, # 馃敼 Genera una respuesta m谩s r谩pida y directa
39
  temperature=0.75, # 馃敼 Mantiene equilibrio entre fluidez y velocidad
40
  top_p=0.9, # 馃敼 Mantiene coherencia en la reescritura
41
  repetition_penalty=1.05, # 馃敼 Evita repeticiones sin restringir demasiado
 
10
  tokenizer.pad_token = tokenizer.eos_token # 馃敼 Evita errores de atenci贸n
11
 
12
  if "model" not in globals():
13
+ model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype=torch.float16)
14
+ model.eval() # 馃敼 Optimiza la inferencia para que sea m谩s r谩pida
 
 
15
 
16
  # Funci贸n exclusiva para humanizaci贸n de texto con enfoque en marketing
17
  def humanize_text(input_text):
 
31
  outputs = model.generate(
32
  inputs.input_ids,
33
  attention_mask=inputs.attention_mask,
34
+ max_new_tokens=150, # 馃敼 Mantiene un balance entre fluidez y velocidad
35
  min_length=30, # 馃敼 Evita respuestas demasiado cortas
36
+ do_sample=True, # 馃敼 Mantiene variabilidad en la reescritura
37
  temperature=0.75, # 馃敼 Mantiene equilibrio entre fluidez y velocidad
38
  top_p=0.9, # 馃敼 Mantiene coherencia en la reescritura
39
  repetition_penalty=1.05, # 馃敼 Evita repeticiones sin restringir demasiado