UPDATE
Browse files
app.py
CHANGED
|
@@ -74,6 +74,8 @@ instructions_par_defaut = (
|
|
| 74 |
"3. Actions prises et suivis incluant les dates et les personnes impliquées. "
|
| 75 |
"4. Toute action supplémentaire ou recommandation nécessaire."
|
| 76 |
)
|
|
|
|
|
|
|
| 77 |
app.add_middleware(
|
| 78 |
CORSMiddleware,
|
| 79 |
allow_origins=origins,
|
|
@@ -97,7 +99,7 @@ async def generate_text(request: RequestModel):
|
|
| 97 |
# Créer la requête pour l'API NVIDIA
|
| 98 |
completion = client.chat.completions.create(
|
| 99 |
model="meta/llama-3.1-8b-instruct",
|
| 100 |
-
messages=[{"role": "user", "content":
|
| 101 |
temperature=0.2,
|
| 102 |
top_p=0.9,
|
| 103 |
# max_tokens=1024,
|
|
|
|
| 74 |
"3. Actions prises et suivis incluant les dates et les personnes impliquées. "
|
| 75 |
"4. Toute action supplémentaire ou recommandation nécessaire."
|
| 76 |
)
|
| 77 |
+
DEFAULT_PROMPT1 = "Résumez la plainte suivante en 5 phrases concises, en vous concentrant sur les faits principaux et en évitant toute introduction générique : "
|
| 78 |
+
|
| 79 |
app.add_middleware(
|
| 80 |
CORSMiddleware,
|
| 81 |
allow_origins=origins,
|
|
|
|
| 99 |
# Créer la requête pour l'API NVIDIA
|
| 100 |
completion = client.chat.completions.create(
|
| 101 |
model="meta/llama-3.1-8b-instruct",
|
| 102 |
+
messages=[{"role": "user", "content": DEFAULT_PROMPT1 + request.text}],
|
| 103 |
temperature=0.2,
|
| 104 |
top_p=0.9,
|
| 105 |
# max_tokens=1024,
|