Update app.py
Browse files
app.py
CHANGED
@@ -1,449 +1,229 @@
|
|
1 |
import os
|
2 |
import gradio as gr
|
3 |
-
import
|
4 |
-
import time
|
5 |
-
import logging
|
6 |
from typing import Iterator
|
7 |
-
|
8 |
import google.generativeai as genai
|
9 |
-
|
10 |
-
|
11 |
-
logging.basicConfig(
|
12 |
-
level=logging.INFO,
|
13 |
-
format='%(asctime)s - %(name)s - %(levelname)s - %(message)s',
|
14 |
-
handlers=[
|
15 |
-
logging.FileHandler("api_debug.log"),
|
16 |
-
logging.StreamHandler()
|
17 |
-
]
|
18 |
-
)
|
19 |
-
logger = logging.getLogger("idea_generator")
|
20 |
|
21 |
-
# Gemini API
|
22 |
GEMINI_API_KEY = os.getenv("GEMINI_API_KEY")
|
23 |
genai.configure(api_key=GEMINI_API_KEY)
|
24 |
|
25 |
-
#
|
26 |
model = genai.GenerativeModel("gemini-2.0-flash-thinking-exp-01-21")
|
27 |
|
28 |
-
##############################################################################
|
29 |
-
# 변환 문자열에서 슬래시("/")로 구분된 두 옵션 중 하나 선택
|
30 |
-
##############################################################################
|
31 |
-
def choose_alternative(transformation):
|
32 |
-
if "/" not in transformation:
|
33 |
-
return transformation
|
34 |
-
parts = transformation.split("/")
|
35 |
-
if len(parts) != 2:
|
36 |
-
return random.choice([part.strip() for part in parts])
|
37 |
-
left = parts[0].strip()
|
38 |
-
right = parts[1].strip()
|
39 |
-
if " " in left:
|
40 |
-
tokens = left.split(" ", 1)
|
41 |
-
prefix = tokens[0]
|
42 |
-
if not right.startswith(prefix):
|
43 |
-
option1 = left
|
44 |
-
option2 = prefix + " " + right
|
45 |
-
else:
|
46 |
-
option1 = left
|
47 |
-
option2 = right
|
48 |
-
return random.choice([option1, option2])
|
49 |
-
else:
|
50 |
-
return random.choice([left, right])
|
51 |
-
|
52 |
-
##############################################################################
|
53 |
-
# 카테고리 사전 (일부만 발췌 가능. 여기서는 예시로 3개만 유지)
|
54 |
-
##############################################################################
|
55 |
-
physical_transformation_categories = {
|
56 |
-
"공간 이동": [
|
57 |
-
"앞/뒤 이동", "좌/우 이동", "위/아래 이동", "세로축 회전(고개 끄덕임)",
|
58 |
-
"가로축 회전(고개 젓기)", "길이축 회전(옆으로 기울임)", "원 운동", "나선형 이동",
|
59 |
-
"관성에 의한 미끄러짐", "회전축 변화", "불규칙 회전", "흔들림 운동", "포물선 이동",
|
60 |
-
"무중력 부유", "수면 위 부유", "점프/도약", "슬라이딩", "롤링", "자유 낙하",
|
61 |
-
"왕복 운동", "탄성 튕김", "관통", "회피 움직임", "지그재그 이동", "스윙 운동"
|
62 |
-
],
|
63 |
-
|
64 |
-
"크기와 형태 변화": [
|
65 |
-
"부피 늘어남/줄어듦", "길이 늘어남/줄어듦", "너비 늘어남/줄어듦", "높이 늘어남/줄어듦",
|
66 |
-
"밀도 변화", "무게 증가/감소", "모양 변형", "상태 변화", "불균등 변형",
|
67 |
-
"복잡한 형태 변형", "비틀림/꼬임", "불균일한 확장/축소", "모서리 둥글게/날카롭게",
|
68 |
-
"깨짐/갈라짐", "여러 조각 나눠짐", "물 저항", "먼지 저항", "찌그러짐/복원",
|
69 |
-
"접힘/펼쳐짐", "압착/팽창", "늘어남/수축", "구겨짐/평평해짐", "뭉개짐/단단해짐",
|
70 |
-
"말림/펴짐", "꺾임/구부러짐"
|
71 |
-
],
|
72 |
-
|
73 |
-
"표면 및 외관 변화": [
|
74 |
-
"색상 변화", "질감 변화", "투명/불투명 변화", "반짝임/무광 변화",
|
75 |
-
"빛 반사 정도 변화", "무늬 변화", "각도에 따른 색상 변화", "빛에 따른 색상 변화",
|
76 |
-
"온도에 따른 색상 변화", "홀로그램 효과", "표면 각도별 빛 반사", "표면 모양 변형",
|
77 |
-
"초미세 표면 구조 변화", "자가 세정 효과", "얼룩/패턴 생성", "흐림/선명함 변화",
|
78 |
-
"광택/윤기 변화", "색조/채도 변화", "발광/형광", "빛 산란 효과",
|
79 |
-
"빛 흡수 변화", "반투명 효과", "그림자 효과 변화", "자외선 반응 변화",
|
80 |
-
"야광 효과"
|
81 |
-
],
|
82 |
-
|
83 |
-
"물질의 상태 변화": [
|
84 |
-
"고체/액체/기체 전환", "결정화/용해", "산화/부식", "딱딱해짐/부드러워짐",
|
85 |
-
"특수 상태 전환", "무정형/결정형 전환", "성분 분리", "미세 입자 형성/분해",
|
86 |
-
"젤 형성/풀어짐", "준안정 상태 변화", "분자 자가 정렬/분해", "상태변화 지연 현상",
|
87 |
-
"녹음", "굳음", "증발/응축", "승화/증착", "침전/부유", "분산/응집",
|
88 |
-
"건조/습윤", "팽윤/수축", "동결/해동", "풍화/침식", "충전/방전",
|
89 |
-
"결합/분리", "발효/부패"
|
90 |
-
],
|
91 |
-
|
92 |
-
"열 관련 변화": [
|
93 |
-
"온도 상승/하강", "열에 의한 팽창/수축", "열 전달/차단", "압력 상승/하강",
|
94 |
-
"열 변화에 따른 자화", "무질서도 변화", "열전기 현상", "자기장에 의한 열 변화",
|
95 |
-
"상태변��� 중 열 저장/방출", "열 스트레스 발생/해소", "급격한 온도 변화 영향",
|
96 |
-
"복사열에 의한 냉각/가열", "발열/흡열", "열 분포 변화", "열 반사/흡수",
|
97 |
-
"냉각 응축", "열 활성화", "열 변색", "열 팽창 계수 변화", "열 안정성 변화",
|
98 |
-
"내열성/내한성", "자기발열", "열적 평형/불균형", "열적 변형", "열 분산/집중"
|
99 |
-
],
|
100 |
-
|
101 |
-
"움직임 특성 변화": [
|
102 |
-
"가속/감속", "일정 속도 유지", "진동/진동 감소", "부딪힘/튕김",
|
103 |
-
"회전 속도 증가/감소", "회전 방향 변화", "불규칙 움직임", "멈췄다 미끄러지는 현상",
|
104 |
-
"공진/반공진", "유체 속 저항/양력 변화", "움직임 저항 변화", "복합 진동 움직임",
|
105 |
-
"특수 유체 속 움직임", "회전-이동 연계 움직임", "관성 정지", "충격 흡수",
|
106 |
-
"충격 전달", "운동량 보존", "마찰력 변화", "관성 탈출", "불안정 균형",
|
107 |
-
"동적 안정성", "흔들림 감쇠", "경로 예측성", "회피 움직임"
|
108 |
-
],
|
109 |
-
|
110 |
-
"구조적 변화": [
|
111 |
-
"부품 추가/제거", "조립/분해", "접기/펴기", "변형/원상복구", "최적 구조 변화",
|
112 |
-
"자가 재배열", "자연 패턴 형성/소멸", "규칙적 패턴 변화", "모듈식 변형",
|
113 |
-
"복잡성 증가 구조", "원래 모양 기억 효과", "시간에 따른 형태 변화", "부분 제거",
|
114 |
-
"부분 교체", "결합", "분리", "분할/통합", "중첩/겹침", "내부 구조 변화",
|
115 |
-
"외부 구조 변화", "중심축 이동", "균형점 변화", "계층 구조 변화", "지지 구조 변화",
|
116 |
-
"응력 분산 구조", "충격 흡수 구조", "그리드/매트릭스 구조 변화", "상호 연결성 변화"
|
117 |
-
],
|
118 |
-
|
119 |
-
"전기 및 자기 변화": [
|
120 |
-
"자성 생성/소멸", "전하량 증가/감소", "전기장 생성/소멸", "자기장 생성/소멸",
|
121 |
-
"초전도 상태 전환", "강유전체 특성 변화", "양자 상태 변화", "플라즈마 상태 형성/소멸",
|
122 |
-
"스핀파 전달", "빛에 의한 전기 발생", "압력에 의한 전기 발생", "자기장 속 전류 변화",
|
123 |
-
"전기 저항 변화", "전기 전도성 변화", "정전기 발생/방전", "전자기 유도",
|
124 |
-
"전자기파 방출/흡수", "전기 용량 변화", "자기 이력 현상", "전기적 분극",
|
125 |
-
"전자 흐름 방향 변화", "전기적 공명", "전기적 차폐/노출", "자기 차폐/노출",
|
126 |
-
"자기장 방향 정렬"
|
127 |
-
],
|
128 |
-
|
129 |
-
"화학적 변화": [
|
130 |
-
"표면 코팅 변화", "물질 성분 변화", "화학 반응 변화", "촉매 작용 시작/중단",
|
131 |
-
"빛에 의한 화학 반응", "전기에 의한 화학 반응", "단분자막 형성", "분자 수준 계산 변화",
|
132 |
-
"자연 모방 표면 변화", "환경 반응형 물질 변화", "주기적 화학 반응", "산화", "환원",
|
133 |
-
"고분자화", "물 분해", "화합", "방사선 영향", "산-염기 반응", "중화 반응",
|
134 |
-
"이온화", "화학적 흡착/탈착", "촉매 효율 변화", "효소 활성 변화", "발색 반응",
|
135 |
-
"pH 변화", "화학적 평형 이동", "결합 형성/분해", "용해도 변화"
|
136 |
-
],
|
137 |
-
|
138 |
-
"시간 관련 변화": [
|
139 |
-
"노화/풍화", "마모/부식", "색 바램/변색", "손상/회복", "수명 주기 변화",
|
140 |
-
"사용자 상호작용에 따른 적응", "학습 기반 형태 최적화", "시간에 따른 물성 변화",
|
141 |
-
"집단 기억 효과", "문화적 의미 변화", "지연 반응", "이전 상태 의존 변화",
|
142 |
-
"점진적 시간 변화", "진화적 변화", "주기적 재생", "계절 변화 적응",
|
143 |
-
"생체리듬 변화", "생애 주기 단계", "성장/퇴화", "자기 복구/재생",
|
144 |
-
"자연 순환 적응", "지속성/일시성", "기억 효과", "지연된 작용", "누적 효과"
|
145 |
-
],
|
146 |
-
|
147 |
-
"빛과 시각 효과": [
|
148 |
-
"발광/소등", "빛 투과/차단", "빛 산란/집중", "색상 스펙트럼 변화", "빛 회절",
|
149 |
-
"빛 간섭", "홀로그램 생성", "레이저 효과", "빛 편광", "형광/인광",
|
150 |
-
"자외선/적외선 발광", "광학적 착시", "빛 굴절", "그림자 생성/제거",
|
151 |
-
"색수차 효과", "무지개 효과", "글로우 효과", "플래시 효과", "조명 패턴",
|
152 |
-
"빔 효과", "광 필터 효과", "빛의 방향성 변화", "투영 효과", "빛 감지/반응",
|
153 |
-
"광도 변화"
|
154 |
-
],
|
155 |
-
|
156 |
-
"소리와 진동 효과": [
|
157 |
-
"소리 발생/소멸", "소리 높낮이 변화", "소리 크기 변화", "음색 변화",
|
158 |
-
"공명/반공명", "음향 진동", "초음파/저음파 발생", "음향 집중/분산",
|
159 |
-
"음향 반사/흡수", "음향 도플러 효과", "음파 간섭", "음향 공진",
|
160 |
-
"진동 패턴 변화", "타악 효과", "음향 피드백", "음향 차폐/증폭",
|
161 |
-
"소리 지향성", "음향 왜곡", "비트 생성", "하모닉��� 생성", "주파수 변조",
|
162 |
-
"음향 충격파", "음향 필터링", "음파 전파 패턴", "진동 댐핑"
|
163 |
-
],
|
164 |
-
|
165 |
-
"생물학적 변화": [
|
166 |
-
"생장/위축", "세포 분열/사멸", "생물 발광", "신진대사 변화", "면역 반응",
|
167 |
-
"호르몬 분비", "신경 반응", "유전적 발현", "적응/진화", "생체리듬 변화",
|
168 |
-
"재생/치유", "노화/성숙", "생체 모방 변화", "바이오필름 형성", "생물학적 분해",
|
169 |
-
"효소 활성화/비활성화", "생물학적 신호 전달", "스트레스 반응", "체온 조절",
|
170 |
-
"생물학적 시계 변화", "세포외 기질 변화", "생체 역학적 반응", "세포 운동성",
|
171 |
-
"세포 극성 변화", "영양 상태 변화"
|
172 |
-
],
|
173 |
-
|
174 |
-
"환경 상호작용": [
|
175 |
-
"온도 반응", "습도 반응", "기압 반응", "중력 반응", "자기장 반응",
|
176 |
-
"빛 반응", "소리 반응", "화학 물질 감지", "기계적 자극 감지", "전기 자극 반응",
|
177 |
-
"방사선 반응", "진동 감지", "pH 반응", "용매 반응", "기체 교환",
|
178 |
-
"환경 오염 반응", "날씨 반응", "계절 변화 반응", "일주기 반응", "생태계 상호작용",
|
179 |
-
"공생/경쟁 반응", "포식/피식 관계", "군집 형성", "영역 설정", "이주/정착 패턴"
|
180 |
-
],
|
181 |
-
|
182 |
-
"센서 기능": [
|
183 |
-
"시각 센서/감지", "청각 센서/감지", "촉각 센서/감지", "미각 센서/감지", "후각 센서/감지",
|
184 |
-
"온도 센서/감지", "습도 센서/감지", "압력 센서/감지", "가속도 센서/감지", "회전 센서/감지",
|
185 |
-
"근접 센서/감지", "위치 센서/감지", "운동 센서/감지", "가스 센서/감지", "적외선 센서/감지",
|
186 |
-
"자외선 센서/감지", "방사선 센서/감지", "자기장 센서/감지", "전기장 센서/감지", "화학물질 센서/감지",
|
187 |
-
"생체신호 센서/감지", "진동 센서/감지", "소음 센서/감지", "빛 세기 센서/감지", "빛 파장 센서/감지",
|
188 |
-
"기울기 센서/감지", "pH 센서/감지", "전류 센서/감지", "전압 센서/감지", "이미지 센서/감지",
|
189 |
-
"거리 센서/감지", "깊이 센서/감지", "중력 센서/감지", "속도 센서/감지", "흐름 센서/감지",
|
190 |
-
"수위 센서/감지", "탁도 센서/감지", "염도 센서/감지", "금속 감지", "압전 센서/감지",
|
191 |
-
"광전 센서/감지", "열전대 센서/감지", "홀 효과 센서/감지", "초음파 센서/감지", "레이더 센서/감지",
|
192 |
-
"라이다 센서/감지", "터치 센서/감지", "제스처 센서/감지", "심박 센서/감지", "혈압 센서/감지"
|
193 |
-
]
|
194 |
-
}
|
195 |
|
196 |
-
|
197 |
-
# 스트리밍용 Gemini API 함수:
|
198 |
-
# - 'Thinking' 단계(아이디어 내부 추론)와 최종 'Response' 단계로 구성
|
199 |
-
##############################################################################
|
200 |
-
def query_gemini_api_stream(prompt: str) -> Iterator[str]:
|
201 |
"""
|
202 |
-
|
203 |
-
분리하여 스트리밍(Chunk)으로 제공한다.
|
204 |
"""
|
205 |
-
|
206 |
-
|
207 |
-
|
208 |
-
|
209 |
-
|
210 |
-
|
211 |
-
|
212 |
-
|
213 |
-
|
214 |
-
|
215 |
-
|
216 |
-
|
217 |
-
# 예시) parts가 2개이면 (0: Thinking, 1: Response 시작)
|
218 |
-
# 그 외에는 1개씩 끊어서 들어올 수 있음
|
219 |
-
if len(parts) == 2 and not thinking_complete:
|
220 |
-
# 아직 Thinking 중인데, 완성된 Thinking + Response 시작이 한 번에 옴
|
221 |
-
thought_buffer += parts[0].text
|
222 |
-
yield f"[Thinking Chunk] {parts[0].text}"
|
223 |
-
|
224 |
-
response_buffer = parts[1].text
|
225 |
-
yield f"[Response Start] {parts[1].text}"
|
226 |
-
|
227 |
-
thinking_complete = True
|
228 |
-
elif thinking_complete:
|
229 |
-
# 이미 Thinking은 끝남 → Response를 이어서 스트리밍
|
230 |
-
current_chunk = parts[0].text
|
231 |
-
response_buffer += current_chunk
|
232 |
-
yield current_chunk
|
233 |
-
else:
|
234 |
-
# Thinking 진행 중 (parts가 1개씩 추가됨)
|
235 |
-
current_chunk = parts[0].text
|
236 |
-
thought_buffer += current_chunk
|
237 |
-
yield f"[Thinking Chunk] {current_chunk}"
|
238 |
-
|
239 |
-
# 스트리밍 완료 후 최종 결과 한번에 제공할 수도 있음
|
240 |
-
yield f"\n[Final Response]\n{response_buffer}"
|
241 |
-
|
242 |
-
##############################################################################
|
243 |
-
# 카테고리별 간단 설명을 'Thinking' + 'Response'로 확장 (스트리밍)
|
244 |
-
##############################################################################
|
245 |
-
def enhance_with_llm_stream(base_description, obj_name, category) -> Iterator[str]:
|
246 |
"""
|
247 |
-
|
248 |
-
'Thinking' + 'Response' 단계를 chunk로 순차 전달
|
249 |
"""
|
250 |
-
|
251 |
-
|
252 |
-
|
253 |
-
|
254 |
-
1) 창의적인 모델/컨셉/형상의 변화에 대한 이해,
|
255 |
-
2) 혁신 포인트와 기능성 등을 중심으로
|
256 |
-
3~4문장의 아이디어로 확장해 주세요.
|
257 |
-
"""
|
258 |
-
# query_gemini_api_stream()로부터 chunk를 받아 그대로 yield
|
259 |
-
for chunk in query_gemini_api_stream(prompt):
|
260 |
-
yield chunk
|
261 |
-
|
262 |
-
##############################################################################
|
263 |
-
# 한 키워드(오브젝트)에 대한 기본 아이디어(카테고리별) 생성
|
264 |
-
##############################################################################
|
265 |
-
def generate_single_object_transformations(obj):
|
266 |
-
results = {}
|
267 |
-
for category, transformations in physical_transformation_categories.items():
|
268 |
-
transformation = choose_alternative(random.choice(transformations))
|
269 |
-
base_description = f"{obj}이(가) {transformation} 현상을 보인다"
|
270 |
-
results[category] = {"base": base_description, "enhanced": ""}
|
271 |
-
return results
|
272 |
-
|
273 |
-
##############################################################################
|
274 |
-
# 2개 키워드 상호작용
|
275 |
-
##############################################################################
|
276 |
-
def generate_two_objects_interaction(obj1, obj2):
|
277 |
-
results = {}
|
278 |
-
for category, transformations in physical_transformation_categories.items():
|
279 |
-
transformation = choose_alternative(random.choice(transformations))
|
280 |
-
template = random.choice([
|
281 |
-
"{obj1}이(가) {obj2}에 결합하여 {change}가 발생했다",
|
282 |
-
"{obj1}과(와) {obj2}이(가) 충돌하면서 {change}가 일어났다"
|
283 |
-
])
|
284 |
-
base_description = template.format(obj1=obj1, obj2=obj2, change=transformation)
|
285 |
-
results[category] = {"base": base_description, "enhanced": ""}
|
286 |
-
return results
|
287 |
-
|
288 |
-
##############################################################################
|
289 |
-
# 3개 키워드 상호작용
|
290 |
-
##############################################################################
|
291 |
-
def generate_three_objects_interaction(obj1, obj2, obj3):
|
292 |
-
results = {}
|
293 |
-
for category, transformations in physical_transformation_categories.items():
|
294 |
-
transformation = choose_alternative(random.choice(transformations))
|
295 |
-
template = random.choice([
|
296 |
-
"{obj1}, {obj2}, {obj3}이(가) 삼각형 구조로 결합하여 {change}가 발생했다",
|
297 |
-
"{obj1}이(가) {obj2}와(과) {obj3} 사이에서 매개체 역할을 하며 {change}를 촉진했다"
|
298 |
-
])
|
299 |
-
base_description = template.format(obj1=obj1, obj2=obj2, obj3=obj3, change=transformation)
|
300 |
-
results[category] = {"base": base_description, "enhanced": ""}
|
301 |
-
return results
|
302 |
-
|
303 |
-
##############################################################################
|
304 |
-
# 실제 변환 생성 로직
|
305 |
-
##############################################################################
|
306 |
-
def generate_transformations(text1, text2=None, text3=None):
|
307 |
-
if text2 and text3:
|
308 |
-
results = generate_three_objects_interaction(text1, text2, text3)
|
309 |
-
objects = [text1, text2, text3]
|
310 |
-
elif text2:
|
311 |
-
results = generate_two_objects_interaction(text1, text2)
|
312 |
-
objects = [text1, text2]
|
313 |
-
else:
|
314 |
-
results = generate_single_object_transformations(text1)
|
315 |
-
objects = [text1]
|
316 |
-
return results, objects
|
317 |
-
|
318 |
-
##############################################################################
|
319 |
-
# 스트리밍: 각 카테고리별로 'Thinking' + 'Response' 부분을 실시간 전달
|
320 |
-
##############################################################################
|
321 |
-
def process_inputs_stream(text1, text2, text3) -> Iterator[list]:
|
322 |
-
"""
|
323 |
-
Gradio의 Chatbot 형식에 맞춰서,
|
324 |
-
[(role='assistant'|'user', content=...), ...] 형태로 yield한다.
|
325 |
-
생각(Thinking) 단계와 최종 응답을 분리해서 실시간 전송.
|
326 |
-
"""
|
327 |
-
messages = []
|
328 |
|
329 |
-
|
330 |
-
|
331 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
332 |
|
333 |
-
|
334 |
-
|
335 |
-
|
336 |
-
|
337 |
-
|
338 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
339 |
|
340 |
-
# 2) 아이디어 생성
|
341 |
-
yield [("assistant", "창의적인 모델/컨셉/형상 변화 아이디어 생성 중... (카테고리별 분석)")]
|
342 |
-
time.sleep(0.3)
|
343 |
-
results, objects = generate_transformations(text1, text2, text3)
|
344 |
-
|
345 |
-
# 카테고리별 스트리밍 처리
|
346 |
-
obj_name = " 및 ".join([obj for obj in objects if obj])
|
347 |
-
|
348 |
-
for i, (category, result_dict) in enumerate(results.items(), start=1):
|
349 |
-
base_desc = result_dict["base"]
|
350 |
-
|
351 |
-
# 카테고리 안내 출력
|
352 |
-
yield [("assistant", f"**[{i}/{len(results)}] 카테고리:** {category}\n\n기본 아이디어: {base_desc}\n\n지금부터 Thinking + Response를 단계적으로 스트리밍합니다...")]
|
353 |
-
time.sleep(0.5)
|
354 |
-
|
355 |
-
# 스트리밍 LLM 호출
|
356 |
-
thinking_text = ""
|
357 |
-
response_text = ""
|
358 |
-
is_thinking_done = False
|
359 |
-
|
360 |
-
# enhance_with_llm_stream 호출
|
361 |
-
for chunk in enhance_with_llm_stream(base_desc, obj_name, category):
|
362 |
-
if chunk.startswith("[Thinking Chunk]"):
|
363 |
-
# 생각 파트
|
364 |
-
thinking_text += chunk.replace("[Thinking Chunk]", "")
|
365 |
-
messages_to_user = f"**[Thinking]**\n{thinking_text}"
|
366 |
-
yield [("assistant", messages_to_user)]
|
367 |
-
elif chunk.startswith("[Response Start]"):
|
368 |
-
# 응답 시작 시점
|
369 |
-
is_thinking_done = True
|
370 |
-
# 남아있는 부분은 response_text로
|
371 |
-
partial = chunk.replace("[Response Start]", "")
|
372 |
-
response_text += partial
|
373 |
-
messages_to_user = f"**[Final Response 시작]**\n{partial}"
|
374 |
-
yield [("assistant", messages_to_user)]
|
375 |
-
elif chunk.startswith("[Final Response]"):
|
376 |
-
# 최종 종료
|
377 |
-
final = chunk.replace("[Final Response]", "")
|
378 |
-
response_text += f"\n{final}"
|
379 |
-
yield [("assistant", f"**[최종 Response]**\n{response_text.strip()}")]
|
380 |
else:
|
381 |
-
#
|
382 |
-
|
383 |
-
|
384 |
-
yield [("assistant", f"**[응답 진행]**\n{response_text}") ]
|
385 |
-
else:
|
386 |
-
thinking_text += chunk
|
387 |
-
yield [("assistant", f"**[Thinking]**\n{thinking_text}")]
|
388 |
|
389 |
-
|
390 |
-
|
|
|
|
|
|
|
|
|
391 |
|
392 |
-
|
393 |
-
yield [("assistant", "**모든 카테고리에 대한 스트리밍이 완료되었습니다!**")]
|
394 |
|
|
|
395 |
|
396 |
-
|
397 |
-
|
398 |
-
|
399 |
-
|
400 |
-
|
|
|
|
|
|
|
|
|
401 |
|
402 |
-
|
403 |
-
|
|
|
|
|
404 |
|
405 |
-
chatbot = gr.Chatbot(
|
406 |
-
label="카테고리별 아이디어(Thinking + Response) 스트리밍",
|
407 |
-
type="tuple", # (role, content) 쌍의 리스트로 전달
|
408 |
-
render_markdown=True
|
409 |
-
)
|
410 |
-
|
411 |
-
with gr.Row():
|
412 |
-
with gr.Column(scale=1):
|
413 |
-
text_input1 = gr.Textbox(label="키워드 1 (필수)", placeholder="예: 자동차")
|
414 |
-
text_input2 = gr.Textbox(label="키워드 2 (선택)", placeholder="예: 로봇")
|
415 |
-
text_input3 = gr.Textbox(label="키워드 3 (선택)", placeholder="예: 인공지능")
|
416 |
-
submit_button = gr.Button("아이디어 생성하기")
|
417 |
|
418 |
-
|
419 |
-
|
420 |
-
|
421 |
-
# 이미 chatbot이 자리를 차지하므로 패스
|
422 |
-
pass
|
423 |
|
424 |
-
|
425 |
-
|
|
|
|
|
426 |
|
427 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
428 |
|
429 |
-
|
430 |
-
|
431 |
-
|
432 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
433 |
]
|
434 |
-
gr.Examples(examples=examples, inputs=[text_input1, text_input2, text_input3])
|
435 |
|
436 |
-
|
437 |
-
|
438 |
-
inputs=
|
439 |
-
|
440 |
-
|
441 |
)
|
442 |
|
443 |
-
|
444 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
445 |
outputs=chatbot
|
446 |
)
|
447 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
448 |
if __name__ == "__main__":
|
449 |
-
demo.launch(debug=True)
|
|
|
1 |
import os
|
2 |
import gradio as gr
|
3 |
+
from gradio import ChatMessage
|
|
|
|
|
4 |
from typing import Iterator
|
|
|
5 |
import google.generativeai as genai
|
6 |
+
import time # Import time module for potential debugging/delay
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
7 |
|
8 |
+
# get Gemini API Key from the environ variable
|
9 |
GEMINI_API_KEY = os.getenv("GEMINI_API_KEY")
|
10 |
genai.configure(api_key=GEMINI_API_KEY)
|
11 |
|
12 |
+
# we will be using the Gemini 2.0 Flash model with Thinking capabilities
|
13 |
model = genai.GenerativeModel("gemini-2.0-flash-thinking-exp-01-21")
|
14 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
15 |
|
16 |
+
def format_chat_history(messages: list) -> list:
|
|
|
|
|
|
|
|
|
17 |
"""
|
18 |
+
Formats the chat history into a structure Gemini can understand
|
|
|
19 |
"""
|
20 |
+
formatted_history = []
|
21 |
+
for message in messages:
|
22 |
+
# Skip thinking messages (messages with metadata)
|
23 |
+
if not (message.get("role") == "assistant" and "metadata" in message):
|
24 |
+
formatted_history.append({
|
25 |
+
"role": "user" if message.get("role") == "user" else "assistant",
|
26 |
+
"parts": [message.get("content", "")]
|
27 |
+
})
|
28 |
+
return formatted_history
|
29 |
+
|
30 |
+
def stream_gemini_response(user_message: str, messages: list) -> Iterator[list]:
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
31 |
"""
|
32 |
+
Streams thoughts and response with conversation history support for text input only.
|
|
|
33 |
"""
|
34 |
+
if not user_message.strip(): # Robust check: if text message is empty or whitespace
|
35 |
+
messages.append(ChatMessage(role="assistant", content="Please provide a non-empty text message. Empty input is not allowed.")) # More specific message
|
36 |
+
yield messages
|
37 |
+
return
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
38 |
|
39 |
+
try:
|
40 |
+
print(f"\n=== New Request (Text) ===")
|
41 |
+
print(f"User message: {user_message}")
|
42 |
+
|
43 |
+
# Format chat history for Gemini
|
44 |
+
chat_history = format_chat_history(messages)
|
45 |
+
|
46 |
+
# Initialize Gemini chat
|
47 |
+
chat = model.start_chat(history=chat_history)
|
48 |
+
response = chat.send_message(user_message, stream=True)
|
49 |
+
|
50 |
+
# Initialize buffers and flags
|
51 |
+
thought_buffer = ""
|
52 |
+
response_buffer = ""
|
53 |
+
thinking_complete = False
|
54 |
+
|
55 |
+
# Add initial thinking message
|
56 |
+
messages.append(
|
57 |
+
ChatMessage(
|
58 |
+
role="assistant",
|
59 |
+
content="",
|
60 |
+
metadata={"title": "⚙️ Thinking: *The thoughts produced by the model are experimental"}
|
61 |
+
)
|
62 |
+
)
|
63 |
+
|
64 |
+
for chunk in response:
|
65 |
+
parts = chunk.candidates[0].content.parts
|
66 |
+
current_chunk = parts[0].text
|
67 |
|
68 |
+
if len(parts) == 2 and not thinking_complete:
|
69 |
+
# Complete thought and start response
|
70 |
+
thought_buffer += current_chunk
|
71 |
+
print(f"\n=== Complete Thought ===\n{thought_buffer}")
|
72 |
+
|
73 |
+
messages[-1] = ChatMessage(
|
74 |
+
role="assistant",
|
75 |
+
content=thought_buffer,
|
76 |
+
metadata={"title": "⚙️ Thinking: *The thoughts produced by the model are experimental"}
|
77 |
+
)
|
78 |
+
yield messages
|
79 |
+
|
80 |
+
# Start response
|
81 |
+
response_buffer = parts[1].text
|
82 |
+
print(f"\n=== Starting Response ===\n{response_buffer}")
|
83 |
+
|
84 |
+
messages.append(
|
85 |
+
ChatMessage(
|
86 |
+
role="assistant",
|
87 |
+
content=response_buffer
|
88 |
+
)
|
89 |
+
)
|
90 |
+
thinking_complete = True
|
91 |
+
|
92 |
+
elif thinking_complete:
|
93 |
+
# Stream response
|
94 |
+
response_buffer += current_chunk
|
95 |
+
print(f"\n=== Response Chunk ===\n{current_chunk}")
|
96 |
+
|
97 |
+
messages[-1] = ChatMessage(
|
98 |
+
role="assistant",
|
99 |
+
content=response_buffer
|
100 |
+
)
|
101 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
102 |
else:
|
103 |
+
# Stream thinking
|
104 |
+
thought_buffer += current_chunk
|
105 |
+
print(f"\n=== Thinking Chunk ===\n{current_chunk}")
|
|
|
|
|
|
|
|
|
106 |
|
107 |
+
messages[-1] = ChatMessage(
|
108 |
+
role="assistant",
|
109 |
+
content=thought_buffer,
|
110 |
+
metadata={"title": "⚙️ Thinking: *The thoughts produced by the model are experimental"}
|
111 |
+
)
|
112 |
+
#time.sleep(0.05) #Optional: Uncomment this line to add a slight delay for debugging/visualization of streaming. Remove for final version
|
113 |
|
114 |
+
yield messages
|
|
|
115 |
|
116 |
+
print(f"\n=== Final Response ===\n{response_buffer}")
|
117 |
|
118 |
+
except Exception as e:
|
119 |
+
print(f"\n=== Error ===\n{str(e)}")
|
120 |
+
messages.append(
|
121 |
+
ChatMessage(
|
122 |
+
role="assistant",
|
123 |
+
content=f"I apologize, but I encountered an error: {str(e)}"
|
124 |
+
)
|
125 |
+
)
|
126 |
+
yield messages
|
127 |
|
128 |
+
def user_message(msg: str, history: list) -> tuple[str, list]:
|
129 |
+
"""Adds user message to chat history"""
|
130 |
+
history.append(ChatMessage(role="user", content=msg))
|
131 |
+
return "", history
|
132 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
133 |
|
134 |
+
# Create the Gradio interface
|
135 |
+
with gr.Blocks(theme=gr.themes.Soft(primary_hue="teal", secondary_hue="slate", neutral_hue="neutral")) as demo: # Using Soft theme with adjusted hues for a refined look
|
136 |
+
gr.Markdown("# Chat with Gemini 2.0 Flash and See its Thoughts 💭")
|
|
|
|
|
137 |
|
138 |
+
|
139 |
+
gr.HTML("""<a href="https://visitorbadge.io/status?path=https%3A%2F%2Faiqcamp-Gemini2-Flash-Thinking.hf.space">
|
140 |
+
<img src="https://api.visitorbadge.io/api/visitors?path=https%3A%2F%2Faiqcamp-Gemini2-Flash-Thinking.hf.space&countColor=%23263759" />
|
141 |
+
</a>""")
|
142 |
|
143 |
+
|
144 |
+
chatbot = gr.Chatbot(
|
145 |
+
type="messages",
|
146 |
+
label="Gemini2.0 'Thinking' Chatbot (Streaming Output)", #Label now indicates streaming
|
147 |
+
render_markdown=True,
|
148 |
+
scale=1,
|
149 |
+
avatar_images=(None,"https://lh3.googleusercontent.com/oxz0sUBF0iYoN4VvhqWTmux-cxfD1rxuYkuFEfm1SFaseXEsjjE4Je_C_V3UQPuJ87sImQK3HfQ3RXiaRnQetjaZbjJJUkiPL5jFJ1WRl5FKJZYibUA=w214-h214-n-nu")
|
150 |
+
)
|
151 |
|
152 |
+
with gr.Row(equal_height=True):
|
153 |
+
input_box = gr.Textbox(
|
154 |
+
lines=1,
|
155 |
+
label="Chat Message",
|
156 |
+
placeholder="Type your message here...",
|
157 |
+
scale=4
|
158 |
+
)
|
159 |
+
|
160 |
+
clear_button = gr.Button("Clear Chat", scale=1)
|
161 |
+
|
162 |
+
# Add example prompts - removed file upload examples. Kept text focused examples.
|
163 |
+
example_prompts = [
|
164 |
+
["Write a short poem about the sunset."],
|
165 |
+
["Explain the theory of relativity in simple terms."],
|
166 |
+
["If a train leaves Chicago at 6am traveling at 60mph, and another train leaves New York at 8am traveling at 80mph, at what time will they meet?"],
|
167 |
+
["Summarize the plot of Hamlet."],
|
168 |
+
["Write a haiku about a cat."]
|
169 |
]
|
|
|
170 |
|
171 |
+
gr.Examples(
|
172 |
+
examples=example_prompts,
|
173 |
+
inputs=input_box,
|
174 |
+
label="Examples: Try these prompts to see Gemini's thinking!",
|
175 |
+
examples_per_page=5 # Adjust as needed
|
176 |
)
|
177 |
|
178 |
+
|
179 |
+
# Set up event handlers
|
180 |
+
msg_store = gr.State("") # Store for preserving user message
|
181 |
+
|
182 |
+
input_box.submit(
|
183 |
+
lambda msg: (msg, msg, ""), # Store message and clear input
|
184 |
+
inputs=[input_box],
|
185 |
+
outputs=[msg_store, input_box, input_box],
|
186 |
+
queue=False
|
187 |
+
).then(
|
188 |
+
user_message, # Add user message to chat
|
189 |
+
inputs=[msg_store, chatbot],
|
190 |
+
outputs=[input_box, chatbot],
|
191 |
+
queue=False
|
192 |
+
).then(
|
193 |
+
stream_gemini_response, # Generate and stream response
|
194 |
+
inputs=[msg_store, chatbot],
|
195 |
outputs=chatbot
|
196 |
)
|
197 |
|
198 |
+
clear_button.click(
|
199 |
+
lambda: ([], "", ""),
|
200 |
+
outputs=[chatbot, input_box, msg_store],
|
201 |
+
queue=False
|
202 |
+
)
|
203 |
+
|
204 |
+
gr.Markdown( # Description moved to the bottom - updated for text-only
|
205 |
+
"""
|
206 |
+
<br><br><br> <!-- Add some vertical space -->
|
207 |
+
---
|
208 |
+
### About this Chatbot
|
209 |
+
This chatbot demonstrates the experimental 'thinking' capability of the **Gemini 2.0 Flash** model.
|
210 |
+
You can observe the model's thought process as it generates responses, displayed with the "⚙️ Thinking" prefix.
|
211 |
+
**Try out the example prompts below to see Gemini in action!**
|
212 |
+
**Key Features:**
|
213 |
+
* Powered by Google's **Gemini 2.0 Flash** model.
|
214 |
+
* Shows the model's **thoughts** before the final answer (experimental feature).
|
215 |
+
* Supports **conversation history** for multi-turn chats.
|
216 |
+
* Uses **streaming** for a more interactive experience.
|
217 |
+
**Instructions:**
|
218 |
+
1. Type your message in the input box below or select an example.
|
219 |
+
2. Press Enter or click Submit to send.
|
220 |
+
3. Observe the chatbot's "Thinking" process followed by the final response.
|
221 |
+
4. Use the "Clear Chat" button to start a new conversation.
|
222 |
+
*Please note*: The 'thinking' feature is experimental and the quality of thoughts may vary.
|
223 |
+
"""
|
224 |
+
)
|
225 |
+
|
226 |
+
|
227 |
+
# Launch the interface
|
228 |
if __name__ == "__main__":
|
229 |
+
demo.launch(debug=True)
|