Update fine_tune_inference_test.py
Browse files- fine_tune_inference_test.py +11 -5
fine_tune_inference_test.py
CHANGED
@@ -167,19 +167,25 @@ def setup_model():
|
|
167 |
log("🔁 Tokenizer yükleniyor...")
|
168 |
tokenizer = AutoTokenizer.from_pretrained(os.path.join(extract_dir, "output"))
|
169 |
|
|
|
|
|
|
|
170 |
log("🧠 Base model indiriliyor...")
|
171 |
base_model = AutoModelForCausalLM.from_pretrained(
|
172 |
MODEL_BASE,
|
173 |
-
torch_dtype=torch.
|
174 |
-
)
|
175 |
|
176 |
log("➕ LoRA adapter uygulanıyor...")
|
177 |
-
peft_model = PeftModel.from_pretrained(
|
|
|
|
|
|
|
178 |
|
179 |
-
model = peft_model.model
|
180 |
model.eval()
|
181 |
|
182 |
-
log("✅ Model başarıyla yüklendi.")
|
183 |
except Exception as e:
|
184 |
log(f"❌ setup_model() sırasında hata oluştu: {e}")
|
185 |
|
|
|
167 |
log("🔁 Tokenizer yükleniyor...")
|
168 |
tokenizer = AutoTokenizer.from_pretrained(os.path.join(extract_dir, "output"))
|
169 |
|
170 |
+
if tokenizer.pad_token is None:
|
171 |
+
tokenizer.pad_token = tokenizer.eos_token
|
172 |
+
|
173 |
log("🧠 Base model indiriliyor...")
|
174 |
base_model = AutoModelForCausalLM.from_pretrained(
|
175 |
MODEL_BASE,
|
176 |
+
torch_dtype=torch.bfloat16 if torch.cuda.is_available() else torch.float32
|
177 |
+
).to("cuda" if torch.cuda.is_available() else "cpu")
|
178 |
|
179 |
log("➕ LoRA adapter uygulanıyor...")
|
180 |
+
peft_model = PeftModel.from_pretrained(
|
181 |
+
base_model,
|
182 |
+
os.path.join(extract_dir, "output")
|
183 |
+
)
|
184 |
|
185 |
+
model = peft_model.model.to("cuda" if torch.cuda.is_available() else "cpu")
|
186 |
model.eval()
|
187 |
|
188 |
+
log(f"✅ Model başarıyla yüklendi. dtype={next(model.parameters()).dtype}, device={next(model.parameters()).device}")
|
189 |
except Exception as e:
|
190 |
log(f"❌ setup_model() sırasında hata oluştu: {e}")
|
191 |
|