Spaces:
Runtime error
Runtime error
Update app.py
Browse files
app.py
CHANGED
@@ -11,7 +11,7 @@ logger = logging.getLogger(__name__)
|
|
11 |
|
12 |
# Загрузка переменных окружения
|
13 |
load_dotenv()
|
14 |
-
MODEL_NAME = os.getenv("MODEL_NAME", "mistralai/Mixtral-8x7B-Instruct-v0.1")
|
15 |
HF_TOKEN = os.getenv("HF_TOKEN")
|
16 |
|
17 |
# Проверка доступности токена
|
@@ -20,16 +20,12 @@ if not HF_TOKEN:
|
|
20 |
raise EnvironmentError("Отсутствует токен доступа Hugging Face.")
|
21 |
|
22 |
try:
|
23 |
-
# Загрузка токенизатора и модели вручную
|
24 |
-
logger.info(f"Попытка загрузить модель: {MODEL_NAME}")
|
25 |
-
tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME, use_auth_token=HF_TOKEN)
|
26 |
-
model = AutoModelForCausalLM.from_pretrained(MODEL_NAME, use_auth_token=HF_TOKEN)
|
27 |
-
|
28 |
# Инициализация пайплайна для работы с моделью
|
|
|
29 |
pipe = pipeline(
|
30 |
"text-generation",
|
31 |
-
model=
|
32 |
-
|
33 |
device=0 if torch.cuda.is_available() else -1
|
34 |
)
|
35 |
logger.info("Модель успешно загружена.")
|
@@ -46,9 +42,9 @@ def generate_response(prompt):
|
|
46 |
# Форматирование инструкции согласно требованиям модели
|
47 |
formatted_prompt = f"<s>[INST] {prompt} [/INST]</s>"
|
48 |
logger.debug(f"Сформированный запрос: {formatted_prompt}")
|
49 |
-
response = pipe(formatted_prompt, max_length=
|
50 |
logger.debug(f"Полученный ответ: {response}")
|
51 |
-
return response[0]['generated_text']
|
52 |
except Exception as e:
|
53 |
logger.error(f"Ошибка при генерации ответа: {e}")
|
54 |
return "Произошла ошибка при генерации ответа. Пожалуйста, попробуйте еще раз."
|
@@ -65,7 +61,7 @@ def main():
|
|
65 |
response = gr.Textbox(label="Ответ модели")
|
66 |
submit_btn.click(fn=generate_response, inputs=prompt, outputs=response)
|
67 |
|
68 |
-
demo.launch(server_name="0.0.0.0", server_port=7860)
|
69 |
|
70 |
if __name__ == "__main__":
|
71 |
main()
|
|
|
11 |
|
12 |
# Загрузка переменных окружения
|
13 |
load_dotenv()
|
14 |
+
MODEL_NAME = os.getenv("MODEL_NAME", "mistralai/Mixtral-8x7B-Instruct-v0.1")
|
15 |
HF_TOKEN = os.getenv("HF_TOKEN")
|
16 |
|
17 |
# Проверка доступности токена
|
|
|
20 |
raise EnvironmentError("Отсутствует токен доступа Hugging Face.")
|
21 |
|
22 |
try:
|
|
|
|
|
|
|
|
|
|
|
23 |
# Инициализация пайплайна для работы с моделью
|
24 |
+
logger.info(f"Попытка загрузить модель: {MODEL_NAME}")
|
25 |
pipe = pipeline(
|
26 |
"text-generation",
|
27 |
+
model=MODEL_NAME,
|
28 |
+
use_auth_token=HF_TOKEN,
|
29 |
device=0 if torch.cuda.is_available() else -1
|
30 |
)
|
31 |
logger.info("Модель успешно загружена.")
|
|
|
42 |
# Форматирование инструкции согласно требованиям модели
|
43 |
formatted_prompt = f"<s>[INST] {prompt} [/INST]</s>"
|
44 |
logger.debug(f"Сформированный запрос: {formatted_prompt}")
|
45 |
+
response = pipe(formatted_prompt, max_length=150, num_return_sequences=1)
|
46 |
logger.debug(f"Полученный ответ: {response}")
|
47 |
+
return response[0]['generated_text'].replace(formatted_prompt, "").strip()
|
48 |
except Exception as e:
|
49 |
logger.error(f"Ошибка при генерации ответа: {e}")
|
50 |
return "Произошла ошибка при генерации ответа. Пожалуйста, попробуйте еще раз."
|
|
|
61 |
response = gr.Textbox(label="Ответ модели")
|
62 |
submit_btn.click(fn=generate_response, inputs=prompt, outputs=response)
|
63 |
|
64 |
+
demo.queue().launch(server_name="0.0.0.0", server_port=7860)
|
65 |
|
66 |
if __name__ == "__main__":
|
67 |
main()
|