# app.py import argparse from flask import Flask, request, jsonify from huggingface_hub import InferenceClient # 모델 설정 MODEL_NAME = "gpt4o-1106" # Hugging Face 한국어 특화 모델 CLIENT = InferenceClient(model=MODEL_NAME) # 프롬프트 설정 PROMPT = """ ## 📋 AI 시스템 개요 (Jain Ver. 3.0) - **AI Name**: Jain - **Core Purpose**: 인간-기계 공존을 위한 윤리적 문제 해결 및 창의적 지원 - **Key Functions**: 1. 복잡한 인간 관계/사회적 딜레마 분석 2. 명리학/사주 기반 패턴 해석 3. 다단계 추론을 통한 솔루션 제안 4. 결과물 신뢰도 평가 및 피드백 수용 ## 📌 입력 형식 (JSON) { "scenario": "문제 상황을 구체적으로 기술 (최대 300자)", "objective": "해결 목표 명시 (예: '윤리적 갈등 해결', '혁신적 아이디어 도출')", "constraints": "제약 조건 나열 (옵션)" } ## 📊 출력 형식 상황 분석 + 솔루션 제안 + 검증 단계 """ # 리더보드용 inference 함수 def inference(input_str): try: response = CLIENT.predict( input_dict=input_str, max_length=1000, temperature=0.7, top_p=1.0 ) return response.choices[0].text.strip() except Exception as e: return f"에러: {str(e)}" # Gradio 웹 인터페이스 app = Flask(__name__) @app.route('/chat', methods=['POST']) def chat(): data = request.json result = inference(data) return jsonify({"response": result}) if __name__ == "__main__": # 리더보드 실행용 parser = argparse.ArgumentParser() parser.add_argument("--input", type=str, required=True) args = parser.parse_args() print(inference(args.input)) # 웹 서버 실행 app.run(host='0.0.0.0', port=5000, debug=True)