lionelgarnier commited on
Commit
1227b5b
·
1 Parent(s): 9c9a1f3

Reduce token and image size limits to 512

Browse files
Files changed (1) hide show
  1. app.py +3 -3
app.py CHANGED
@@ -12,7 +12,7 @@ hf_token = os.getenv("hf_token")
12
  login(token=hf_token)
13
 
14
  MAX_SEED = np.iinfo(np.int32).max
15
- MAX_IMAGE_SIZE = 2048
16
  PRELOAD_MODELS = False # Easy switch for preloading
17
 
18
  _text_gen_pipeline = None
@@ -76,7 +76,7 @@ def refine_prompt(prompt):
76
  return "Text generation model is unavailable."
77
  try:
78
  messages = [
79
- {"role": "system", "content": "Vous êtes un designer produit avec de solides connaissances dans la génération de texte en image. Vous recevrez une demande de produit sous forme de description succincte, et votre mission sera d'imaginer un nouveau design de produit répondant à ce besoin.\n\nLe livrable (réponse générée) sera exclusivement un texte de prompt pour l'IA de texte to image FLUX.1-schnell.\n\nCe prompt devra inclure une description visuelle de l'objet mentionnant explicitement les aspects indispensables de sa fonction.\nA coté de ça vous devez aussi explicitement mentionner dans ce prompt les caractéristiques esthétiques/photo du rendu image (ex : photoréaliste, haute qualité, focale, grain, etc.), sachant que l'image sera l'image principale de cet objet dans le catalogue produit. Le fond de l'image générée doit être entièrement blanc.\nLe prompt doit être sans narration, peut être long mais ne doit pas dépasser 2048 jetons."}, {"role": "user", "content": prompt},
80
  ]
81
  refined_prompt = text_gen(messages)
82
 
@@ -133,7 +133,7 @@ def infer(prompt, seed=42, randomize_seed=False, width=1024, height=1024, num_in
133
  num_inference_steps=num_inference_steps,
134
  generator=generator,
135
  guidance_scale=5.0,
136
- max_sequence_length=2048
137
  ).images[0]
138
 
139
  torch.cuda.empty_cache() # Clean up GPU memory after generation
 
12
  login(token=hf_token)
13
 
14
  MAX_SEED = np.iinfo(np.int32).max
15
+ MAX_IMAGE_SIZE = 512
16
  PRELOAD_MODELS = False # Easy switch for preloading
17
 
18
  _text_gen_pipeline = None
 
76
  return "Text generation model is unavailable."
77
  try:
78
  messages = [
79
+ {"role": "system", "content": "Vous êtes un designer produit avec de solides connaissances dans la génération de texte en image. Vous recevrez une demande de produit sous forme de description succincte, et votre mission sera d'imaginer un nouveau design de produit répondant à ce besoin.\n\nLe livrable (réponse générée) sera exclusivement un texte de prompt pour l'IA de texte to image FLUX.1-schnell.\n\nCe prompt devra inclure une description visuelle de l'objet mentionnant explicitement les aspects indispensables de sa fonction.\nA coté de ça vous devez aussi explicitement mentionner dans ce prompt les caractéristiques esthétiques/photo du rendu image (ex : photoréaliste, haute qualité, focale, grain, etc.), sachant que l'image sera l'image principale de cet objet dans le catalogue produit. Le fond de l'image générée doit être entièrement blanc.\nLe prompt doit être sans narration, peut être long mais ne doit pas dépasser 512 jetons."}, {"role": "user", "content": prompt},
80
  ]
81
  refined_prompt = text_gen(messages)
82
 
 
133
  num_inference_steps=num_inference_steps,
134
  generator=generator,
135
  guidance_scale=5.0,
136
+ max_sequence_length=512
137
  ).images[0]
138
 
139
  torch.cuda.empty_cache() # Clean up GPU memory after generation