Update fine_tune_inference_test.py
Browse files
fine_tune_inference_test.py
CHANGED
@@ -133,15 +133,13 @@ def chat(msg: Message):
|
|
133 |
with torch.no_grad():
|
134 |
output = model.generate(
|
135 |
**inputs,
|
136 |
-
max_new_tokens=
|
137 |
-
do_sample=
|
138 |
-
temperature=0.7,
|
139 |
-
top_k=50,
|
140 |
-
top_p=0.95,
|
141 |
return_dict_in_generate=True,
|
142 |
output_scores=True,
|
143 |
suppress_tokens=[tokenizer.pad_token_id] if tokenizer.pad_token_id is not None else None
|
144 |
)
|
|
|
145 |
except Exception as e:
|
146 |
log("generate() sırasında istisna oluştu, input dump ediliyor...")
|
147 |
log(f"input_ids: {inputs['input_ids']}")
|
|
|
133 |
with torch.no_grad():
|
134 |
output = model.generate(
|
135 |
**inputs,
|
136 |
+
max_new_tokens=100,
|
137 |
+
do_sample=False, # 🔒 sampling kapalı, deterministik çıktı
|
|
|
|
|
|
|
138 |
return_dict_in_generate=True,
|
139 |
output_scores=True,
|
140 |
suppress_tokens=[tokenizer.pad_token_id] if tokenizer.pad_token_id is not None else None
|
141 |
)
|
142 |
+
|
143 |
except Exception as e:
|
144 |
log("generate() sırasında istisna oluştu, input dump ediliyor...")
|
145 |
log(f"input_ids: {inputs['input_ids']}")
|