ciyidogan commited on
Commit
46691cd
·
verified ·
1 Parent(s): 8ab22e1

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +13 -6
app.py CHANGED
@@ -4,6 +4,7 @@ import traceback
4
  from fastapi import FastAPI
5
  from pydantic import BaseModel
6
  from llama_cpp import Llama
 
7
  from datetime import datetime
8
 
9
  # === 🕒 Zamanlı log fonksiyonu
@@ -12,10 +13,12 @@ def log(message):
12
  line = f"[{timestamp}] {message}"
13
  print(line, flush=True)
14
 
15
- # === GGUF model yolunu buraya koy
16
- MODEL_PATH = "./model/Turkish-Llama-3-8B-function-calling.Q4_K_M.gguf"
 
 
17
 
18
- # === Hard-coded system prompt (bizim test mantığımız)
19
  SYSTEM_PROMPT = """
20
  Siz bir görev tabanlı asistan botsunuz. Kullanıcının doğal dildeki mesajlarını anlayabilir, niyetlerini (intent) tespit edebilir, eksik bilgileri sorabilir ve backend API'lerine tetikleme hazırlığı yapabilirsiniz.
21
 
@@ -25,7 +28,7 @@ Siz bir görev tabanlı asistan botsunuz. Kullanıcının doğal dildeki mesajla
25
  #ANSWER: <cevap metni veya NONE>
26
  #INTENT: <intent_adı> (veya NONE)
27
  #PARAMS: {parametre_adı: değer, ...}
28
- #MISSING: [eksik_parametre_adı, ...}
29
  #ACTION_JSON: {api için gönderilecek json, eksikse boş bırak}
30
 
31
  ✅ Desteklenen intent'ler:
@@ -47,8 +50,12 @@ def load_model():
47
  global llm
48
  try:
49
  log("🚀 Uygulama başlatılıyor...")
50
- log(f"📦 GGUF model yükleniyor: {MODEL_PATH}")
51
- llm = Llama(model_path=MODEL_PATH, n_gpu_layers=-1, n_ctx=4096)
 
 
 
 
52
  log("✅ Model başarıyla yüklendi ve kullanılmaya hazır.")
53
  log("💡 Artık /chat endpoint'ine POST isteği gönderebilirsiniz.")
54
  except Exception as e:
 
4
  from fastapi import FastAPI
5
  from pydantic import BaseModel
6
  from llama_cpp import Llama
7
+ from huggingface_hub import hf_hub_download
8
  from datetime import datetime
9
 
10
  # === 🕒 Zamanlı log fonksiyonu
 
13
  line = f"[{timestamp}] {message}"
14
  print(line, flush=True)
15
 
16
+ # === Model bilgileri
17
+ REPO_ID = "oncu/Turkish-Llama-3-8B-function-calling-GGUF"
18
+ FILENAME = "turkish-llama-3-8b-function-calling-q8_0.gguf"
19
+ LOCAL_MODEL_PATH = f"/tmp/{FILENAME}"
20
 
21
+ # === System prompt (bizim test formatımız)
22
  SYSTEM_PROMPT = """
23
  Siz bir görev tabanlı asistan botsunuz. Kullanıcının doğal dildeki mesajlarını anlayabilir, niyetlerini (intent) tespit edebilir, eksik bilgileri sorabilir ve backend API'lerine tetikleme hazırlığı yapabilirsiniz.
24
 
 
28
  #ANSWER: <cevap metni veya NONE>
29
  #INTENT: <intent_adı> (veya NONE)
30
  #PARAMS: {parametre_adı: değer, ...}
31
+ #MISSING: [eksik_parametre_adı, ...]
32
  #ACTION_JSON: {api için gönderilecek json, eksikse boş bırak}
33
 
34
  ✅ Desteklenen intent'ler:
 
50
  global llm
51
  try:
52
  log("🚀 Uygulama başlatılıyor...")
53
+ log("📥 Model indirme başlatılıyor...")
54
+ model_path = hf_hub_download(repo_id=REPO_ID, filename=FILENAME, local_dir="/tmp")
55
+ log(f"✅ Model indirildi: {model_path}")
56
+
57
+ log("📦 GGUF model yükleniyor...")
58
+ llm = Llama(model_path=model_path, n_gpu_layers=-1, n_ctx=4096)
59
  log("✅ Model başarıyla yüklendi ve kullanılmaya hazır.")
60
  log("💡 Artık /chat endpoint'ine POST isteği gönderebilirsiniz.")
61
  except Exception as e: