Spaces:
Paused
Paused
Update app.py
Browse files
app.py
CHANGED
@@ -10,13 +10,15 @@ if "tokenizer" not in globals():
|
|
10 |
tokenizer.pad_token = tokenizer.eos_token # 🔹 Evita errores de atención
|
11 |
|
12 |
if "model" not in globals():
|
13 |
-
model = AutoModelForCausalLM.from_pretrained(
|
14 |
-
|
|
|
|
|
15 |
|
16 |
# Función exclusiva para humanización de texto con enfoque en marketing
|
17 |
def humanize_text(input_text):
|
18 |
system_prompt = (
|
19 |
-
"
|
20 |
"manteniendo su significado original. "
|
21 |
"Adopta un tono más claro y cercano, ideal para comunicación en marketing. "
|
22 |
"Convierte estructuras rígidas en frases más dinámicas y fluidas, "
|
@@ -31,10 +33,10 @@ def humanize_text(input_text):
|
|
31 |
outputs = model.generate(
|
32 |
inputs.input_ids,
|
33 |
attention_mask=inputs.attention_mask,
|
34 |
-
max_new_tokens=
|
35 |
min_length=30, # 🔹 Evita respuestas demasiado cortas
|
36 |
-
do_sample=
|
37 |
-
temperature=0.
|
38 |
top_p=0.9, # 🔹 Mantiene coherencia en la reescritura
|
39 |
repetition_penalty=1.05, # 🔹 Evita repeticiones sin restringir demasiado
|
40 |
num_return_sequences=1, # 🔹 Genera solo una respuesta bien formulada
|
|
|
10 |
tokenizer.pad_token = tokenizer.eos_token # 🔹 Evita errores de atención
|
11 |
|
12 |
if "model" not in globals():
|
13 |
+
model = AutoModelForCausalLM.from_pretrained(
|
14 |
+
model_name, torch_dtype=torch.float16, device_map="auto" # 🔹 Optimiza la inferencia según los recursos
|
15 |
+
)
|
16 |
+
model.eval() # 🔹 Reduce el consumo innecesario de memoria
|
17 |
|
18 |
# Función exclusiva para humanización de texto con enfoque en marketing
|
19 |
def humanize_text(input_text):
|
20 |
system_prompt = (
|
21 |
+
"Reescribe el siguiente texto con un estilo más natural, accesible y persuasivo, "
|
22 |
"manteniendo su significado original. "
|
23 |
"Adopta un tono más claro y cercano, ideal para comunicación en marketing. "
|
24 |
"Convierte estructuras rígidas en frases más dinámicas y fluidas, "
|
|
|
33 |
outputs = model.generate(
|
34 |
inputs.input_ids,
|
35 |
attention_mask=inputs.attention_mask,
|
36 |
+
max_new_tokens=140, # 🔹 Limita la cantidad de palabras generadas para mejorar la velocidad
|
37 |
min_length=30, # 🔹 Evita respuestas demasiado cortas
|
38 |
+
do_sample=False, # 🔹 Genera una respuesta más rápida y directa
|
39 |
+
temperature=0.75, # 🔹 Mantiene equilibrio entre fluidez y velocidad
|
40 |
top_p=0.9, # 🔹 Mantiene coherencia en la reescritura
|
41 |
repetition_penalty=1.05, # 🔹 Evita repeticiones sin restringir demasiado
|
42 |
num_return_sequences=1, # 🔹 Genera solo una respuesta bien formulada
|