k3ybladewielder commited on
Commit
c08d114
verified
1 Parent(s): 046188a

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +2 -2
app.py CHANGED
@@ -82,7 +82,7 @@ def get_llm():
82
  # Atualizando o nome do modelo para carregar o tokenizer correto,
83
  # mesmo que o arquivo GGUF seja de outro repo.
84
  # O tokenizer ainda deve ser compat铆vel com o modelo base "google/gemma-2b-it".
85
- TOKENIZER_MODEL = "google/gemma-2b-it"
86
  model_path = os.path.join(CACHE_FOLDER, LOCAL_MODEL_FILE)
87
  logger.info(f"Carregando LLM quantizado localmente: {LOCAL_MODEL_FILE}")
88
 
@@ -135,7 +135,7 @@ def get_llm():
135
  "text-generation",
136
  model=model,
137
  tokenizer=tokenizer,
138
- max_new_tokens=1024,
139
  temperature=0.3,
140
  # Par芒metros de parada para evitar que o modelo continue a gerar ap贸s a resposta
141
  # Note: stop_sequence pode n茫o ser universalmente suportado por todas as pipelines/modelos
 
82
  # Atualizando o nome do modelo para carregar o tokenizer correto,
83
  # mesmo que o arquivo GGUF seja de outro repo.
84
  # O tokenizer ainda deve ser compat铆vel com o modelo base "google/gemma-2b-it".
85
+ TOKENIZER_MODEL = LLM_MODEL
86
  model_path = os.path.join(CACHE_FOLDER, LOCAL_MODEL_FILE)
87
  logger.info(f"Carregando LLM quantizado localmente: {LOCAL_MODEL_FILE}")
88
 
 
135
  "text-generation",
136
  model=model,
137
  tokenizer=tokenizer,
138
+ max_new_tokens=520,
139
  temperature=0.3,
140
  # Par芒metros de parada para evitar que o modelo continue a gerar ap贸s a resposta
141
  # Note: stop_sequence pode n茫o ser universalmente suportado por todas as pipelines/modelos