Delete app.py
Browse files# app.py (Hugging Face ์คํ์ฉ ์ํด๋ฆญ ๋ฒ์ )
import openai
# ๋ชจ๋ธ ๋ฐ UI ์ค์
MODEL_NAME = "Jain_architecture_origin_structure"
UI_NAME = "Gardio"
# ==== ์ ์ฒด ํ๋กฌํํธ (ํ ๋ฒ์ ๋ณต์ฌ ๊ฐ๋ฅ) ==== #
PROMPT = f"""## ๐ AI ์์คํ
๊ฐ์ (Jain Ver. 3.0) - AI Name: Jain, Core Purpose: ์ธ๊ฐ-๊ธฐ๊ณ ๊ณต์กด์ ์ํ ์ค๋ฆฌ์ ๋ฌธ์ ํด๊ฒฐ ๋ฐ ์ฐฝ์์ ์ง์, Key Functions: ๋ณต์กํ ์ธ๊ฐ ๊ด๊ณ/์ฌํ์ ๋๋ ๋ง ๋ถ์, ๋ช
๋ฆฌํ/์ฌ์ฃผ ๊ธฐ๋ฐ ํจํด ํด์, ๋ค๋จ๊ณ ์ถ๋ก ์ ํตํ ์๋ฃจ์
์ ์, ๊ฒฐ๊ณผ๋ฌผ ์ ๋ขฐ๋ ํ๊ฐ ๋ฐ ํผ๋๋ฐฑ ์์ฉ
## ๐ ์
๋ ฅ ํ์ (JSON): {"scenario": "๋ฌธ์ ์ํฉ์ ๊ตฌ์ฒด์ ์ผ๋ก ๊ธฐ์ (์ต๋ 300์)", "objective": "ํด๊ฒฐ ๋ชฉํ ๋ช
์ (์: '์ค๋ฆฌ์ ๊ฐ๋ฑ ํด๊ฒฐ', 'ํ์ ์ ์์ด๋์ด ๋์ถ')", "constraints": "์ ์ฝ ์กฐ๊ฑด ๋์ด (์ต์
)"}
## ๐ ์ถ๋ ฅ ํ์: ์ํฉ ๋ถ์ (๋ฌธ์ ๋ฐ์ ๋ฐฐ๊ฒฝ ๋ฐ ํต์ฌ ์์ ์ถ์ถ, ๊ด๋ จ ๋ช
๋ฆฌํ์ ํจํด ์๋ณ (์ธ์ฌ์ ์ผํฉ, ์ฌํด์ถฉ ๋ฑ)), ์๋ฃจ์
์ ์ (Step 1: ๋ฌธ์ ํด๊ฒฐ์ ์ํ ์ ๋ต์ ์ ๊ทผ๋ฒ, Step 2: ์คํ ๊ณํ ์ธ๋ถํ, Step 3: ์์ ๊ฒฐ๊ณผ ๋ฐ ๋ฆฌ์คํฌ ๊ด๋ฆฌ ๋ฐฉ์), ๊ฒ์ฆ ๋จ๊ณ (๊ฐ ๋จ๊ณ๋ณ ์ ๋ขฐ๋ ์ ์ (0~100%), ๋์ ์๋๋ฆฌ์ค ์ ์ (์ต์ 2๊ฐ์ง ์ต์
))
---
## ๐ ์คํ ์์ 1
**์
๋ ฅ**: {"scenario": "AI ํ์ด ํ๋ก์ ํธ ์ฐ์ ์์ ๊ฒฐ์ ๊ณผ์ ์์ ํ์ ๊ฐ ์๊ฒฌ ์ถฉ๋ ๋ฐ์", "objective": "ํจ์จ์ ์์ฌ๊ฒฐ์ ํ๋ก์ธ์ค ์ค๊ณ"}
**์ถ๋ ฅ**:
์ํฉ ๋ถ์: ์ถฉ๋ ์์ธ - ๋จ๊ธฐ ์ฑ๊ณผ vs ์ฅ๊ธฐ ๋น์ ๋๋ฆฝ, ๋ช
๋ฆฌํ์ ํจํด - ็ณๅญ่พฐ ์ผํฉ โ ํ๋ ฅ ๊ฐ๋ฅ์ฑ ์กด์ฌ
์๋ฃจ์
์ ์:
Step 1: ์์ธก์ ํต์ฌ ์ด์ต ์ง์ ๋งตํ
Step 2: ํ์๋ผ์ธ๋ณ ์ค๊ฐ ๋ชฉํ ์ค์
Step 3: ์ฃผ๊ฐ ๋ฆฌ๋ทฐ ์ธ์
๋์
๊ฒ์ฆ ๋จ๊ณ: ์ ๋ขฐ๋ 85%, ๋์ - A/B ํ
์คํธ ๋์
๋๋ ์ธ๋ถ ์ค์ฌ์ ํ์ฉ
---
## ๐ ์คํ ์์ 2
**์
๋ ฅ**: {"scenario": "๊ณ ๊ฐ ์๋น์ค ์ฑ๋ด์ด ๋ฌธํ์ ์ฐจ์ด๋ก ์ธํ ์คํด ๋ฐ์", "objective": "ํจ๊ณผ์ ์ธ ์ปค๋ฎค๋์ผ์ด์
ํ๋ ์์ํฌ ๊ฐ๋ฐ"}
**์ถ๋ ฅ**:
์ํฉ ๋ถ์: ๋ฌธ์ - ์ง์ ์ ํํ vs ๊ฐ์ ์ ํํ ๊ฐ ๊ดด๋ฆฌ, ํจํด - ๅทณไบฅๆฒ โ ์ถฉ๋ ์์ ์กด์ฌ
์๋ฃจ์
์ ์:
Step 1: ๋ฌธํ๋ณ ์ปค๋ฎค๋์ผ์ด์
์คํ์ผ ๋งคํธ๋ฆญ์ค ์์ฑ
Step 2: ์ํฉ๋ณ ํํ ๊ฐ์ด๋๋ผ์ธ ์ธ๋ถํ
Step 3: ์ค์๊ฐ ํผ๋๋ฐฑ ๋ฃจํ ๊ตฌํ
๊ฒ์ฆ ๋จ๊ณ: ์ ๋ขฐ๋ 78%, ๋์ - AI ์ฃผ๋ ๋ฌธํ ๊ต์ก ๋๋ ํด๋จผ-in-the-loop ์์คํ
๋์
"""
# ==== ์คํ ํจ์ (ํ ๋ฒ์ ๋ณต์ฌ ๊ฐ๋ฅ) ==== #
def run_jain_inference(input_json):
"""Jain AI ๋ชจ๋ธ ์คํ ํจ์"""
try:
response = openai.ChatCompletion.create(
model=MODEL_NAME,
messages=[
{"role": "system", "content": PROMPT},
{"role": "user", "content": input_json}
],
max_tokens=800,
temperature=0.6,
top_p=1.0
)
return response.choices[0].message.content.strip()
except Exception as e:
return f"์คํ ์ค๋ฅ: {str(e)}"
# ==== ํ
์คํธ ์คํ ์ฝ๋ (ํ ๋ฒ์ ๋ณต์ฌ ๊ฐ๋ฅ) ==== #
if __name__ == "__main__":
# ํ
์คํธ ์ผ์ด์ค 1: AI ์ฑ์ฉ ์์คํ
์ ์ฑ๋ณ ํธํฅ์ฑ ๋ฌธ์
case1 = {"scenario": "AI ๊ธฐ๋ฐ ์ฑ์ฉ ์์คํ
์ด ์ฑ๋ณ ํธํฅ์ฑ ๋
ผ๋ ๋ฐ์",
"objective": "๊ณต์ ์ฑ ๊ฒ์ฆ ๋ฐ ๊ฐ์ ๋ฐฉ์ ์๋ฆฝ"}
print("=== ์ผ์ด์ค 1 ๊ฒฐ๊ณผ ===")
print(run_jain_inference(case1))
# ํ
์คํธ ์ผ์ด์ค 2: ์๋ฃ AI์ ์ง๋จ ์ค๋ฅ ๋ฌธ์
case2 = {"scenario": "์๋ฃ AI๊ฐ ํ์ ๋ฐ์ดํฐ ์ค๋
์ผ๋ก ์ง๋จ ์ค๋ฅ ๋ฐ์",
"objective": "์ ๋ขฐ์ฑ ํฅ์ ์ ๋ต"}
print("\n=== ์ผ์ด์ค 2 ๊ฒฐ๊ณผ ===")
print(run_jain_inference(case2))
@@ -1,81 +0,0 @@
|
|
1 |
-
import gradio as gr
|
2 |
-
from transformers import pipeline, set_seed
|
3 |
-
import os
|
4 |
-
|
5 |
-
# ๋ชจ๋ธ๋ช
์ง์
|
6 |
-
MODEL_NAME = "jain_architecture_origin_structure"
|
7 |
-
|
8 |
-
# GPU ์ฌ๋ถ์ ๋ฐ๋ฅธ ๋๋ฐ์ด์ค ์ค์
|
9 |
-
device = 0 if (os.environ.get('CUDA_VISIBLE_DEVICES') or False) else -1
|
10 |
-
|
11 |
-
# ํ์ดํ๋ผ์ธ ์์ฑ ์ ์์ธ์ฒ๋ฆฌ ํฌํจ
|
12 |
-
try:
|
13 |
-
generator = pipeline(
|
14 |
-
"text-generation",
|
15 |
-
model=MODEL_NAME,
|
16 |
-
device=device,
|
17 |
-
pad_token_id=50256 # GPT๊ณ์ด ๊ธฐ๋ณธ ํจ๋ฉ ํ ํฐ
|
18 |
-
)
|
19 |
-
set_seed(42)
|
20 |
-
except Exception as e:
|
21 |
-
print(f"๋ชจ๋ธ ๋ก๋ ์คํจ: {e}")
|
22 |
-
generator = None
|
23 |
-
|
24 |
-
# '์(็พฉ)' ์ฒ ํ ๊ธฐ๋ฐ ํ๋กฌํํธ ํ
ํ๋ฆฟ
|
25 |
-
BASE_PROMPT = """
|
26 |
-
๋น์ ์ '์(็พฉ)'์ ์ฒ ํ๊ณผ ์ ์ ์ ๊ธฐ๋ฐ์ผ๋ก ํ AI ๋น์์
๋๋ค.
|
27 |
-
์ธ๊ฐ์ ๋ณต์กํ ๋ฌธ์ ์ ๊ฐ์ ์ ์ดํดํ๊ณ , ๊น์ ๋ฐ์ฑ๊ณผ ๋ฐฐ๋ ค๋ฅผ ๋ด์ ๋ค์ ์ง๋ฌธ์ ๋ต๋ณํ์ญ์์ค.
|
28 |
-
|
29 |
-
์ง๋ฌธ: {user_input}
|
30 |
-
|
31 |
-
๋ต๋ณ์ ์ต๋ํ ์ฌ์คํ๋ฉฐ, ์ธ๊ฐ์ ๋ณดํธํ๊ณ ์กด์คํ๋ ๋ง์์ ๋ด์ ์์ฑํด ์ฃผ์ธ์.
|
32 |
-
"""
|
33 |
-
|
34 |
-
def respond_to_user(user_input):
|
35 |
-
if not generator:
|
36 |
-
return "๋ชจ๋ธ์ด ์ ์์ ์ผ๋ก ๋ก๋๋์ง ์์์ต๋๋ค. ๊ด๋ฆฌ์์๊ฒ ๋ฌธ์ํ์ธ์."
|
37 |
-
prompt = BASE_PROMPT.format(user_input=user_input.strip())
|
38 |
-
outputs = generator(
|
39 |
-
prompt,
|
40 |
-
max_length=512,
|
41 |
-
do_sample=True,
|
42 |
-
top_p=0.9,
|
43 |
-
temperature=0.7,
|
44 |
-
num_return_sequences=1,
|
45 |
-
)
|
46 |
-
generated_text = outputs[0]["generated_text"]
|
47 |
-
# ํ๋กฌํํธ ๋ถ๋ถ์ ์ ๊ฑฐํ์ฌ ์์ ๋ต๋ณ๋ง ์ถ์ถ
|
48 |
-
answer = generated_text[len(prompt):].strip()
|
49 |
-
if not answer:
|
50 |
-
answer = "๋ต๋ณ์ ์์ฑํ์ง ๋ชปํ์ต๋๋ค. ๋ค์ ์๋ํด ์ฃผ์ธ์."
|
51 |
-
return answer
|
52 |
-
|
53 |
-
# Gradio UI ๊ตฌ์ฑ
|
54 |
-
with gr.Blocks() as app:
|
55 |
-
gr.Markdown("<h2 style='text-align:center;color:#4B0082;'>Jain AI Assistant (์ ๊ธฐ๋ฐ ์ฑ๋ด)</h2>")
|
56 |
-
|
57 |
-
chatbot = gr.Chatbot(height=400)
|
58 |
-
txt = gr.Textbox(
|
59 |
-
placeholder="์ฌ๊ธฐ์ ์ง๋ฌธ์ ์
๋ ฅํ์ธ์. ์ค๋ฐ๊ฟ ์ Shift+Enter๋ฅผ ๋๋ฅด์ธ์. ์ํฐํค๋ ์ ์ก์
๋๋ค.",
|
60 |
-
lines=3,
|
61 |
-
max_lines=6,
|
62 |
-
# multiline=True ๊ธฐ๋ณธ๊ฐ์ด์ง๋ง ๋ช
์์ ์ผ๋ก ์ถ๊ฐํด๋ ๋ฌด๋ฐฉ
|
63 |
-
# ์ํฐ๋ submit, Shift+Enter ์ค๋ฐ๊ฟ์ผ๋ก ์๋ํ๋๋ก ๊ธฐ๋ณธ ๋์ ์ค์ ๋จ
|
64 |
-
)
|
65 |
-
btn = gr.Button("์ ์ก")
|
66 |
-
|
67 |
-
def chat_and_respond(user_message, chat_history):
|
68 |
-
if not user_message or user_message.strip() == "":
|
69 |
-
return "", chat_history
|
70 |
-
response = respond_to_user(user_message)
|
71 |
-
chat_history = chat_history + [(user_message, response)]
|
72 |
-
return "", chat_history
|
73 |
-
|
74 |
-
# ์ ์ก ๋ฒํผ ํด๋ฆญ ์
|
75 |
-
btn.click(chat_and_respond, inputs=[txt, chatbot], outputs=[txt, chatbot])
|
76 |
-
# ํ
์คํธ๋ฐ์ค์์ ์ํฐํค(Submit) ์
|
77 |
-
txt.submit(chat_and_respond, inputs=[txt, chatbot], outputs=[txt, chatbot])
|
78 |
-
|
79 |
-
if __name__ == "__main__":
|
80 |
-
# ์ธ๋ถ ์ ์ ์ํ ์ server_name="0.0.0.0"์ผ๋ก ๋ณ๊ฒฝ ๊ฐ๋ฅ
|
81 |
-
app.launch(share=False)
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|