ciyidogan commited on
Commit
d2b7005
·
verified ·
1 Parent(s): 4a97af8

Update fine_tune_inference_test.py

Browse files
Files changed (1) hide show
  1. fine_tune_inference_test.py +11 -5
fine_tune_inference_test.py CHANGED
@@ -167,19 +167,25 @@ def setup_model():
167
  log("🔁 Tokenizer yükleniyor...")
168
  tokenizer = AutoTokenizer.from_pretrained(os.path.join(extract_dir, "output"))
169
 
 
 
 
170
  log("🧠 Base model indiriliyor...")
171
  base_model = AutoModelForCausalLM.from_pretrained(
172
  MODEL_BASE,
173
- torch_dtype=torch.float16 if torch.cuda.is_available() else torch.float32
174
- )
175
 
176
  log("➕ LoRA adapter uygulanıyor...")
177
- peft_model = PeftModel.from_pretrained(base_model, os.path.join(extract_dir, "output"))
 
 
 
178
 
179
- model = peft_model.model
180
  model.eval()
181
 
182
- log("✅ Model başarıyla yüklendi.")
183
  except Exception as e:
184
  log(f"❌ setup_model() sırasında hata oluştu: {e}")
185
 
 
167
  log("🔁 Tokenizer yükleniyor...")
168
  tokenizer = AutoTokenizer.from_pretrained(os.path.join(extract_dir, "output"))
169
 
170
+ if tokenizer.pad_token is None:
171
+ tokenizer.pad_token = tokenizer.eos_token
172
+
173
  log("🧠 Base model indiriliyor...")
174
  base_model = AutoModelForCausalLM.from_pretrained(
175
  MODEL_BASE,
176
+ torch_dtype=torch.bfloat16 if torch.cuda.is_available() else torch.float32
177
+ ).to("cuda" if torch.cuda.is_available() else "cpu")
178
 
179
  log("➕ LoRA adapter uygulanıyor...")
180
+ peft_model = PeftModel.from_pretrained(
181
+ base_model,
182
+ os.path.join(extract_dir, "output")
183
+ )
184
 
185
+ model = peft_model.model.to("cuda" if torch.cuda.is_available() else "cpu")
186
  model.eval()
187
 
188
+ log(f"✅ Model başarıyla yüklendi. dtype={next(model.parameters()).dtype}, device={next(model.parameters()).device}")
189
  except Exception as e:
190
  log(f"❌ setup_model() sırasında hata oluştu: {e}")
191