shao3d commited on
Commit
3370f0b
·
verified ·
1 Parent(s): bbb2692

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +4 -5
app.py CHANGED
@@ -18,12 +18,11 @@ model.eval() # Переключаем в режим предсказания
18
 
19
  def generate_response(history):
20
  # Если history пустой, берем сообщение из текстового поля (msg)
21
- if not history: # Проверяем, пустой ли history
22
- # Получаем последний вопрос из текстового поля через Gradio
23
- # Но здесь мы работаем с history напрямую, поэтому предположим, что вопрос приходит через msg
24
- raise gr.Error("Пожалуйста, введите сообщение в текстовое поле перед отправкой.") # Добавляем проверку
25
  # Берем последний вопрос пользователя
26
- user_message = history[-1][0] # Последнее сообщение пользователя
27
  # Генерируем ответ
28
  inputs = tokenizer(user_message, return_tensors="pt").to("cpu")
29
  outputs = model.generate(
 
18
 
19
  def generate_response(history):
20
  # Если history пустой, берем сообщение из текстового поля (msg)
21
+ if not history:
22
+ # Получаем сообщение из текстового поля через Gradio (предполагаем, что оно передается отдельно)
23
+ raise gr.Error("Пожалуйста, введите сообщение в текстовое поле перед отправкой.") # Проверка на случай, если сообщение не введено
 
24
  # Берем последний вопрос пользователя
25
+ user_message = history[-1][0] if history else gr.State.value # Если history пуст, берем сообщение из State (опционально)
26
  # Генерируем ответ
27
  inputs = tokenizer(user_message, return_tensors="pt").to("cpu")
28
  outputs = model.generate(