Halleq commited on
Commit
8ef5965
·
verified ·
1 Parent(s): 36c5d9a

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +12 -3
app.py CHANGED
@@ -5,14 +5,23 @@ import torch
5
  # تحميل الموديل
6
  model_name = "Salesforce/codegen-350M-mono"
7
  tokenizer = AutoTokenizer.from_pretrained(model_name)
8
- model = AutoModelForCausalLM.from_pretrained(model_name).to("cpu")
9
 
10
  # دالة التوليد
11
  def generate_code(prompt):
12
  inputs = tokenizer(prompt, return_tensors="pt")
13
- outputs = model.generate(**inputs, max_new_tokens=50)
 
 
 
 
 
 
 
14
  code = tokenizer.decode(outputs[0], skip_special_tokens=True)
15
- return code
 
 
16
 
17
  # واجهة Gradio
18
  gr.Interface(
 
5
  # تحميل الموديل
6
  model_name = "Salesforce/codegen-350M-mono"
7
  tokenizer = AutoTokenizer.from_pretrained(model_name)
8
+ model = AutoModelForCausalLM.from_pretrained(model_name).to("cpu")
9
 
10
  # دالة التوليد
11
  def generate_code(prompt):
12
  inputs = tokenizer(prompt, return_tensors="pt")
13
+ outputs = model.generate(
14
+ **inputs,
15
+ max_new_tokens=200, # زيادة عدد التوكنز ليرجع كود أطول
16
+ temperature=0.7, # ضبط العشوائية (أقل من 1 = كود أدق)
17
+ do_sample=True, # تفعيل التوليد العشوائي
18
+ top_k=50, # استخدام top-k sampling
19
+ top_p=0.95 # أو استخدام nucleus sampling
20
+ )
21
  code = tokenizer.decode(outputs[0], skip_special_tokens=True)
22
+
23
+ # إزالة البادئة من الـ prompt لو تكررت في الإخراج
24
+ return code[len(prompt):] if code.startswith(prompt) else code
25
 
26
  # واجهة Gradio
27
  gr.Interface(