Spaces:
Runtime error
Runtime error
lionelgarnier
commited on
Commit
·
40dbd0f
1
Parent(s):
350ac7c
update prompt agent
Browse files
app.py
CHANGED
@@ -62,8 +62,7 @@ def refine_prompt(prompt):
|
|
62 |
return "Text generation model is unavailable."
|
63 |
try:
|
64 |
messages = [
|
65 |
-
{"role": "system", "content": "Vous êtes un designer produit avec de solides connaissances dans la génération de texte en image. Vous recevrez une demande de produit sous forme de description succincte, et votre mission sera d'imaginer un nouveau design de produit répondant à ce besoin.\n\nLe réponse générée sera exclusivement un prompt pour
|
66 |
-
{"role": "user", "content": prompt},
|
67 |
]
|
68 |
refined_prompt = text_gen(messages)
|
69 |
|
@@ -146,9 +145,15 @@ def preload_models():
|
|
146 |
try:
|
147 |
# Préchargement du modèle de génération de texte
|
148 |
device = "cuda" if torch.cuda.is_available() else "cpu"
|
|
|
|
|
|
|
|
|
|
|
149 |
_text_gen_pipeline = pipeline(
|
150 |
"text-generation",
|
151 |
model="mistralai/Mistral-7B-Instruct-v0.3",
|
|
|
152 |
max_new_tokens=2048,
|
153 |
device=device,
|
154 |
)
|
|
|
62 |
return "Text generation model is unavailable."
|
63 |
try:
|
64 |
messages = [
|
65 |
+
{"role": "system", "content": "Vous êtes un designer produit avec de solides connaissances dans la génération de texte en image. Vous recevrez une demande de produit sous forme de description succincte, et votre mission sera d'imaginer un nouveau design de produit répondant à ce besoin.\n\nLe livrable (réponse générée) sera exclusivement un texte de prompt pour l'IA de texte to image FLUX.1-schnell.\n\nCe prompt devra inclure une description visuelle de l'objet mentionnant explicitement les aspects indispensables de sa fonction.\nA coté de ça vous devez aussi explicitement mentionner dans ce prompt les caractéristiques esthétiques/photo du rendu image (ex : photoréaliste, haute qualité, focale, grain, etc.), sachant que l'image sera l'image principale de cet objet dans le catalogue produit. Le fond de l'image générée doit être entièrement blanc.\nLe prompt doit être sans narration, peut être long mais ne doit pas dépasser 2048 jetons."}, {"role": "user", "content": prompt},
|
|
|
66 |
]
|
67 |
refined_prompt = text_gen(messages)
|
68 |
|
|
|
145 |
try:
|
146 |
# Préchargement du modèle de génération de texte
|
147 |
device = "cuda" if torch.cuda.is_available() else "cpu"
|
148 |
+
# Explicitly load the fast tokenizer LGR
|
149 |
+
tokenizer = AutoTokenizer.from_pretrained(
|
150 |
+
"mistralai/Mistral-7B-Instruct-v0.3",
|
151 |
+
use_fast=True # Ensures a fast tokenizer is used
|
152 |
+
)
|
153 |
_text_gen_pipeline = pipeline(
|
154 |
"text-generation",
|
155 |
model="mistralai/Mistral-7B-Instruct-v0.3",
|
156 |
+
tokenizer=tokenizer, # Pass the fast tokenizer in LGR
|
157 |
max_new_tokens=2048,
|
158 |
device=device,
|
159 |
)
|