Update app.py
Browse files
app.py
CHANGED
@@ -1,5 +1,5 @@
|
|
1 |
"""
|
2 |
-
Простой агент для Agent Challenge с использованием Gradio
|
3 |
"""
|
4 |
|
5 |
import os
|
@@ -10,16 +10,16 @@ import gradio as gr
|
|
10 |
from huggingface_hub import InferenceClient
|
11 |
|
12 |
# Безопасная обработка токена Hugging Face
|
13 |
-
# Токен должен быть установлен как переменная окружения
|
14 |
# или передан через Secrets в Hugging Face Spaces
|
15 |
-
|
16 |
|
17 |
# Инициализация клиента Hugging Face
|
18 |
client = None
|
19 |
try:
|
20 |
client = InferenceClient(
|
21 |
model="mistralai/Mixtral-8x7B-Instruct-v0.1", # Рекомендуемая модель
|
22 |
-
token=
|
23 |
)
|
24 |
except Exception as e:
|
25 |
print(f"Ошибка инициализации InferenceClient: {e}. Проверьте токен и доступность модели.")
|
|
|
1 |
"""
|
2 |
+
Простой агент для Agent Challenge с использованием Gradio и Mixtral
|
3 |
"""
|
4 |
|
5 |
import os
|
|
|
10 |
from huggingface_hub import InferenceClient
|
11 |
|
12 |
# Безопасная обработка токена Hugging Face
|
13 |
+
# Токен должен быть установлен как переменная окружения HF_TOKEN
|
14 |
# или передан через Secrets в Hugging Face Spaces
|
15 |
+
HF_TOKEN = os.environ.get("HF_TOKEN")
|
16 |
|
17 |
# Инициализация клиента Hugging Face
|
18 |
client = None
|
19 |
try:
|
20 |
client = InferenceClient(
|
21 |
model="mistralai/Mixtral-8x7B-Instruct-v0.1", # Рекомендуемая модель
|
22 |
+
token=HF_TOKEN
|
23 |
)
|
24 |
except Exception as e:
|
25 |
print(f"Ошибка инициализации InferenceClient: {e}. Проверьте токен и доступность модели.")
|