Spaces:
Sleeping
Sleeping
Update app.py
Browse files
app.py
CHANGED
@@ -82,7 +82,7 @@ def get_llm():
|
|
82 |
# Atualizando o nome do modelo para carregar o tokenizer correto,
|
83 |
# mesmo que o arquivo GGUF seja de outro repo.
|
84 |
# O tokenizer ainda deve ser compat铆vel com o modelo base "google/gemma-2b-it".
|
85 |
-
TOKENIZER_MODEL =
|
86 |
model_path = os.path.join(CACHE_FOLDER, LOCAL_MODEL_FILE)
|
87 |
logger.info(f"Carregando LLM quantizado localmente: {LOCAL_MODEL_FILE}")
|
88 |
|
@@ -135,7 +135,7 @@ def get_llm():
|
|
135 |
"text-generation",
|
136 |
model=model,
|
137 |
tokenizer=tokenizer,
|
138 |
-
max_new_tokens=
|
139 |
temperature=0.3,
|
140 |
# Par芒metros de parada para evitar que o modelo continue a gerar ap贸s a resposta
|
141 |
# Note: stop_sequence pode n茫o ser universalmente suportado por todas as pipelines/modelos
|
|
|
82 |
# Atualizando o nome do modelo para carregar o tokenizer correto,
|
83 |
# mesmo que o arquivo GGUF seja de outro repo.
|
84 |
# O tokenizer ainda deve ser compat铆vel com o modelo base "google/gemma-2b-it".
|
85 |
+
TOKENIZER_MODEL = LLM_MODEL
|
86 |
model_path = os.path.join(CACHE_FOLDER, LOCAL_MODEL_FILE)
|
87 |
logger.info(f"Carregando LLM quantizado localmente: {LOCAL_MODEL_FILE}")
|
88 |
|
|
|
135 |
"text-generation",
|
136 |
model=model,
|
137 |
tokenizer=tokenizer,
|
138 |
+
max_new_tokens=520,
|
139 |
temperature=0.3,
|
140 |
# Par芒metros de parada para evitar que o modelo continue a gerar ap贸s a resposta
|
141 |
# Note: stop_sequence pode n茫o ser universalmente suportado por todas as pipelines/modelos
|