Spaces:
Paused
Paused
Update app.py
Browse files
app.py
CHANGED
@@ -10,10 +10,8 @@ if "tokenizer" not in globals():
|
|
10 |
tokenizer.pad_token = tokenizer.eos_token # 馃敼 Evita errores de atenci贸n
|
11 |
|
12 |
if "model" not in globals():
|
13 |
-
model = AutoModelForCausalLM.from_pretrained(
|
14 |
-
|
15 |
-
)
|
16 |
-
model.eval() # 馃敼 Reduce el consumo innecesario de memoria
|
17 |
|
18 |
# Funci贸n exclusiva para humanizaci贸n de texto con enfoque en marketing
|
19 |
def humanize_text(input_text):
|
@@ -33,9 +31,9 @@ def humanize_text(input_text):
|
|
33 |
outputs = model.generate(
|
34 |
inputs.input_ids,
|
35 |
attention_mask=inputs.attention_mask,
|
36 |
-
max_new_tokens=
|
37 |
min_length=30, # 馃敼 Evita respuestas demasiado cortas
|
38 |
-
do_sample=
|
39 |
temperature=0.75, # 馃敼 Mantiene equilibrio entre fluidez y velocidad
|
40 |
top_p=0.9, # 馃敼 Mantiene coherencia en la reescritura
|
41 |
repetition_penalty=1.05, # 馃敼 Evita repeticiones sin restringir demasiado
|
|
|
10 |
tokenizer.pad_token = tokenizer.eos_token # 馃敼 Evita errores de atenci贸n
|
11 |
|
12 |
if "model" not in globals():
|
13 |
+
model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype=torch.float16)
|
14 |
+
model.eval() # 馃敼 Optimiza la inferencia para que sea m谩s r谩pida
|
|
|
|
|
15 |
|
16 |
# Funci贸n exclusiva para humanizaci贸n de texto con enfoque en marketing
|
17 |
def humanize_text(input_text):
|
|
|
31 |
outputs = model.generate(
|
32 |
inputs.input_ids,
|
33 |
attention_mask=inputs.attention_mask,
|
34 |
+
max_new_tokens=150, # 馃敼 Mantiene un balance entre fluidez y velocidad
|
35 |
min_length=30, # 馃敼 Evita respuestas demasiado cortas
|
36 |
+
do_sample=True, # 馃敼 Mantiene variabilidad en la reescritura
|
37 |
temperature=0.75, # 馃敼 Mantiene equilibrio entre fluidez y velocidad
|
38 |
top_p=0.9, # 馃敼 Mantiene coherencia en la reescritura
|
39 |
repetition_penalty=1.05, # 馃敼 Evita repeticiones sin restringir demasiado
|