Leri777 commited on
Commit
b04bbf8
·
verified ·
1 Parent(s): d953685

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +7 -11
app.py CHANGED
@@ -11,7 +11,7 @@ logger = logging.getLogger(__name__)
11
 
12
  # Загрузка переменных окружения
13
  load_dotenv()
14
- MODEL_NAME = os.getenv("MODEL_NAME", "mistralai/Mixtral-8x7B-Instruct-v0.1") # Убедитесь, что идентификатор правильный
15
  HF_TOKEN = os.getenv("HF_TOKEN")
16
 
17
  # Проверка доступности токена
@@ -20,16 +20,12 @@ if not HF_TOKEN:
20
  raise EnvironmentError("Отсутствует токен доступа Hugging Face.")
21
 
22
  try:
23
- # Загрузка токенизатора и модели вручную
24
- logger.info(f"Попытка загрузить модель: {MODEL_NAME}")
25
- tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME, use_auth_token=HF_TOKEN)
26
- model = AutoModelForCausalLM.from_pretrained(MODEL_NAME, use_auth_token=HF_TOKEN)
27
-
28
  # Инициализация пайплайна для работы с моделью
 
29
  pipe = pipeline(
30
  "text-generation",
31
- model=model,
32
- tokenizer=tokenizer,
33
  device=0 if torch.cuda.is_available() else -1
34
  )
35
  logger.info("Модель успешно загружена.")
@@ -46,9 +42,9 @@ def generate_response(prompt):
46
  # Форматирование инструкции согласно требованиям модели
47
  formatted_prompt = f"<s>[INST] {prompt} [/INST]</s>"
48
  logger.debug(f"Сформированный запрос: {formatted_prompt}")
49
- response = pipe(formatted_prompt, max_length=100, num_return_sequences=1)
50
  logger.debug(f"Полученный ответ: {response}")
51
- return response[0]['generated_text']
52
  except Exception as e:
53
  logger.error(f"Ошибка при генерации ответа: {e}")
54
  return "Произошла ошибка при генерации ответа. Пожалуйста, попробуйте еще раз."
@@ -65,7 +61,7 @@ def main():
65
  response = gr.Textbox(label="Ответ модели")
66
  submit_btn.click(fn=generate_response, inputs=prompt, outputs=response)
67
 
68
- demo.launch(server_name="0.0.0.0", server_port=7860)
69
 
70
  if __name__ == "__main__":
71
  main()
 
11
 
12
  # Загрузка переменных окружения
13
  load_dotenv()
14
+ MODEL_NAME = os.getenv("MODEL_NAME", "mistralai/Mixtral-8x7B-Instruct-v0.1")
15
  HF_TOKEN = os.getenv("HF_TOKEN")
16
 
17
  # Проверка доступности токена
 
20
  raise EnvironmentError("Отсутствует токен доступа Hugging Face.")
21
 
22
  try:
 
 
 
 
 
23
  # Инициализация пайплайна для работы с моделью
24
+ logger.info(f"Попытка загрузить модель: {MODEL_NAME}")
25
  pipe = pipeline(
26
  "text-generation",
27
+ model=MODEL_NAME,
28
+ use_auth_token=HF_TOKEN,
29
  device=0 if torch.cuda.is_available() else -1
30
  )
31
  logger.info("Модель успешно загружена.")
 
42
  # Форматирование инструкции согласно требованиям модели
43
  formatted_prompt = f"<s>[INST] {prompt} [/INST]</s>"
44
  logger.debug(f"Сформированный запрос: {formatted_prompt}")
45
+ response = pipe(formatted_prompt, max_length=150, num_return_sequences=1)
46
  logger.debug(f"Полученный ответ: {response}")
47
+ return response[0]['generated_text'].replace(formatted_prompt, "").strip()
48
  except Exception as e:
49
  logger.error(f"Ошибка при генерации ответа: {e}")
50
  return "Произошла ошибка при генерации ответа. Пожалуйста, попробуйте еще раз."
 
61
  response = gr.Textbox(label="Ответ модели")
62
  submit_btn.click(fn=generate_response, inputs=prompt, outputs=response)
63
 
64
+ demo.queue().launch(server_name="0.0.0.0", server_port=7860)
65
 
66
  if __name__ == "__main__":
67
  main()