Spaces:
Running
Running
Update app.py
Browse files
app.py
CHANGED
|
@@ -24,11 +24,11 @@ def query(prompt, model, is_negative=False, steps=30, cfg_scale=7, sampler="DPM+
|
|
| 24 |
"messages": [
|
| 25 |
{
|
| 26 |
"role": "user",
|
| 27 |
-
"content":
|
| 28 |
},
|
| 29 |
{
|
| 30 |
"role": "user",
|
| 31 |
-
"content":
|
| 32 |
}
|
| 33 |
],
|
| 34 |
"max_tokens": 4095,
|
|
@@ -55,13 +55,11 @@ def query(prompt, model, is_negative=False, steps=30, cfg_scale=7, sampler="DPM+
|
|
| 55 |
response_json = response.json()
|
| 56 |
try:
|
| 57 |
# Пытаемся извлечь текст из ответа
|
| 58 |
-
|
| 59 |
except Exception as e:
|
| 60 |
# Если есть ошибка в структуре JSON, выводим ее
|
| 61 |
-
return f"Error processing the image response: {e}"
|
| 62 |
else:
|
| 63 |
# Если произошла ошибка, возвращаем сообщение об ошибке
|
| 64 |
-
return f"Error: {response.status_code} - {response.text}"
|
| 65 |
|
| 66 |
|
| 67 |
API_TOKEN = random.choice([os.getenv("HF_READ_TOKEN"), os.getenv("HF_READ_TOKEN_2"), os.getenv("HF_READ_TOKEN_3"), os.getenv("HF_READ_TOKEN_4"), os.getenv("HF_READ_TOKEN_5")]) # it is free
|
|
|
|
| 24 |
"messages": [
|
| 25 |
{
|
| 26 |
"role": "user",
|
| 27 |
+
"content": "В этом чате тебе будут присылать prompt для нейросетей генераторов изображений. А ты должен будешь пожалуйста улучшить этот prompt.",
|
| 28 |
},
|
| 29 |
{
|
| 30 |
"role": "user",
|
| 31 |
+
"content": prompt,
|
| 32 |
}
|
| 33 |
],
|
| 34 |
"max_tokens": 4095,
|
|
|
|
| 55 |
response_json = response.json()
|
| 56 |
try:
|
| 57 |
# Пытаемся извлечь текст из ответа
|
| 58 |
+
prompt = response_json["choices"][0]["message"]["content"]
|
| 59 |
except Exception as e:
|
| 60 |
# Если есть ошибка в структуре JSON, выводим ее
|
|
|
|
| 61 |
else:
|
| 62 |
# Если произошла ошибка, возвращаем сообщение об ошибке
|
|
|
|
| 63 |
|
| 64 |
|
| 65 |
API_TOKEN = random.choice([os.getenv("HF_READ_TOKEN"), os.getenv("HF_READ_TOKEN_2"), os.getenv("HF_READ_TOKEN_3"), os.getenv("HF_READ_TOKEN_4"), os.getenv("HF_READ_TOKEN_5")]) # it is free
|