Spaces:
Runtime error
Runtime error
lionelgarnier
commited on
Commit
·
1227b5b
1
Parent(s):
9c9a1f3
Reduce token and image size limits to 512
Browse files
app.py
CHANGED
@@ -12,7 +12,7 @@ hf_token = os.getenv("hf_token")
|
|
12 |
login(token=hf_token)
|
13 |
|
14 |
MAX_SEED = np.iinfo(np.int32).max
|
15 |
-
MAX_IMAGE_SIZE =
|
16 |
PRELOAD_MODELS = False # Easy switch for preloading
|
17 |
|
18 |
_text_gen_pipeline = None
|
@@ -76,7 +76,7 @@ def refine_prompt(prompt):
|
|
76 |
return "Text generation model is unavailable."
|
77 |
try:
|
78 |
messages = [
|
79 |
-
{"role": "system", "content": "Vous êtes un designer produit avec de solides connaissances dans la génération de texte en image. Vous recevrez une demande de produit sous forme de description succincte, et votre mission sera d'imaginer un nouveau design de produit répondant à ce besoin.\n\nLe livrable (réponse générée) sera exclusivement un texte de prompt pour l'IA de texte to image FLUX.1-schnell.\n\nCe prompt devra inclure une description visuelle de l'objet mentionnant explicitement les aspects indispensables de sa fonction.\nA coté de ça vous devez aussi explicitement mentionner dans ce prompt les caractéristiques esthétiques/photo du rendu image (ex : photoréaliste, haute qualité, focale, grain, etc.), sachant que l'image sera l'image principale de cet objet dans le catalogue produit. Le fond de l'image générée doit être entièrement blanc.\nLe prompt doit être sans narration, peut être long mais ne doit pas dépasser
|
80 |
]
|
81 |
refined_prompt = text_gen(messages)
|
82 |
|
@@ -133,7 +133,7 @@ def infer(prompt, seed=42, randomize_seed=False, width=1024, height=1024, num_in
|
|
133 |
num_inference_steps=num_inference_steps,
|
134 |
generator=generator,
|
135 |
guidance_scale=5.0,
|
136 |
-
max_sequence_length=
|
137 |
).images[0]
|
138 |
|
139 |
torch.cuda.empty_cache() # Clean up GPU memory after generation
|
|
|
12 |
login(token=hf_token)
|
13 |
|
14 |
MAX_SEED = np.iinfo(np.int32).max
|
15 |
+
MAX_IMAGE_SIZE = 512
|
16 |
PRELOAD_MODELS = False # Easy switch for preloading
|
17 |
|
18 |
_text_gen_pipeline = None
|
|
|
76 |
return "Text generation model is unavailable."
|
77 |
try:
|
78 |
messages = [
|
79 |
+
{"role": "system", "content": "Vous êtes un designer produit avec de solides connaissances dans la génération de texte en image. Vous recevrez une demande de produit sous forme de description succincte, et votre mission sera d'imaginer un nouveau design de produit répondant à ce besoin.\n\nLe livrable (réponse générée) sera exclusivement un texte de prompt pour l'IA de texte to image FLUX.1-schnell.\n\nCe prompt devra inclure une description visuelle de l'objet mentionnant explicitement les aspects indispensables de sa fonction.\nA coté de ça vous devez aussi explicitement mentionner dans ce prompt les caractéristiques esthétiques/photo du rendu image (ex : photoréaliste, haute qualité, focale, grain, etc.), sachant que l'image sera l'image principale de cet objet dans le catalogue produit. Le fond de l'image générée doit être entièrement blanc.\nLe prompt doit être sans narration, peut être long mais ne doit pas dépasser 512 jetons."}, {"role": "user", "content": prompt},
|
80 |
]
|
81 |
refined_prompt = text_gen(messages)
|
82 |
|
|
|
133 |
num_inference_steps=num_inference_steps,
|
134 |
generator=generator,
|
135 |
guidance_scale=5.0,
|
136 |
+
max_sequence_length=512
|
137 |
).images[0]
|
138 |
|
139 |
torch.cuda.empty_cache() # Clean up GPU memory after generation
|