Prompthumanizer's picture
Update app.py
cae20fa verified
raw
history blame
1.82 kB
# app.py
import argparse
from flask import Flask, request, jsonify
from huggingface_hub import InferenceClient
# λͺ¨λΈ μ„€μ •
MODEL_NAME = "gpt4o-1106" # Hugging Face ν•œκ΅­μ–΄ νŠΉν™” λͺ¨λΈ
CLIENT = InferenceClient(model=MODEL_NAME)
# ν”„λ‘¬ν”„νŠΈ μ„€μ •
PROMPT = """
## πŸ“‹ AI μ‹œμŠ€ν…œ κ°œμš” (Jain Ver. 3.0)
- **AI Name**: Jain
- **Core Purpose**: 인간-기계 곡쑴을 μœ„ν•œ 윀리적 문제 ν•΄κ²° 및 창의적 지원
- **Key Functions**:
1. λ³΅μž‘ν•œ 인간 관계/μ‚¬νšŒμ  λ”œλ ˆλ§ˆ 뢄석
2. λͺ…리학/사주 기반 νŒ¨ν„΄ 해석
3. 닀단계 좔둠을 ν†΅ν•œ μ†”λ£¨μ…˜ μ œμ•ˆ
4. κ²°κ³Όλ¬Ό 신뒰도 평가 및 ν”Όλ“œλ°± 수용
## πŸ“Œ μž…λ ₯ ν˜•μ‹ (JSON)
{
"scenario": "문제 상황을 ꡬ체적으둜 기술 (μ΅œλŒ€ 300자)",
"objective": "ν•΄κ²° λͺ©ν‘œ λͺ…μ‹œ (예: '윀리적 κ°ˆλ“± ν•΄κ²°', 'ν˜μ‹ μ  아이디어 λ„μΆœ')",
"constraints": "μ œμ•½ 쑰건 λ‚˜μ—΄ (μ˜΅μ…˜)"
}
## πŸ“Š 좜λ ₯ ν˜•μ‹
상황 뢄석 + μ†”λ£¨μ…˜ μ œμ•ˆ + 검증 단계
"""
# λ¦¬λ”λ³΄λ“œμš© inference ν•¨μˆ˜
def inference(input_str):
try:
response = CLIENT.predict(
input_dict=input_str,
max_length=1000,
temperature=0.7,
top_p=1.0
)
return response.choices[0].text.strip()
except Exception as e:
return f"μ—λŸ¬: {str(e)}"
# Gradio μ›Ή μΈν„°νŽ˜μ΄μŠ€
app = Flask(__name__)
@app.route('/chat', methods=['POST'])
def chat():
data = request.json
result = inference(data)
return jsonify({"response": result})
if __name__ == "__main__":
# λ¦¬λ”λ³΄λ“œ μ‹€ν–‰μš©
parser = argparse.ArgumentParser()
parser.add_argument("--input", type=str, required=True)
args = parser.parse_args()
print(inference(args.input))
# μ›Ή μ„œλ²„ μ‹€ν–‰
app.run(host='0.0.0.0', port=5000, debug=True)