File size: 58,811 Bytes
60f0037
a4de15e
 
89ac221
d419338
a4de15e
 
 
 
89ac221
 
a4de15e
d419338
 
89ac221
d419338
a4de15e
89ac221
d419338
a4de15e
60f0037
89ac221
60f0037
 
d419338
89ac221
 
 
d419338
60f0037
d419338
 
 
 
 
 
 
 
 
60f0037
 
89ac221
d419338
 
 
 
 
 
 
 
 
60f0037
89ac221
d419338
89ac221
d419338
 
89ac221
 
 
 
 
60f0037
89ac221
60f0037
89ac221
 
 
 
 
8586c6d
 
 
 
89ac221
8586c6d
 
89ac221
8586c6d
 
60f0037
 
8586c6d
60f0037
89ac221
 
60f0037
8586c6d
 
60f0037
8586c6d
 
60f0037
89ac221
8586c6d
60f0037
8586c6d
 
60f0037
8586c6d
 
60f0037
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
8586c6d
60f0037
 
8586c6d
60f0037
 
89ac221
60f0037
89ac221
60f0037
89ac221
8586c6d
 
60f0037
8586c6d
89ac221
 
d419338
60f0037
 
d419338
60f0037
 
 
 
 
d419338
 
60f0037
 
 
d419338
60f0037
d419338
 
 
 
 
 
 
 
60f0037
d419338
60f0037
d419338
60f0037
a4de15e
89ac221
 
60f0037
 
89ac221
a4de15e
d419338
89ac221
8586c6d
 
60f0037
8586c6d
 
 
 
60f0037
 
89ac221
60f0037
 
8586c6d
89ac221
60f0037
 
8586c6d
d419338
60f0037
 
 
 
 
 
 
 
d419338
 
 
60f0037
 
d419338
60f0037
89ac221
 
adf55b4
89ac221
 
 
60f0037
 
d419338
 
89ac221
60f0037
d419338
 
a4de15e
89ac221
60f0037
 
89ac221
8586c6d
 
60f0037
 
d419338
60f0037
89ac221
60f0037
89ac221
 
 
 
 
 
 
60f0037
89ac221
 
 
60f0037
89ac221
d419338
89ac221
60f0037
 
a4de15e
89ac221
 
60f0037
89ac221
60f0037
 
89ac221
60f0037
 
 
89ac221
60f0037
 
8586c6d
60f0037
 
 
8586c6d
d419338
60f0037
 
89ac221
d419338
60f0037
 
89ac221
60f0037
8586c6d
 
60f0037
 
d419338
89ac221
60f0037
8586c6d
89ac221
8586c6d
89ac221
 
 
60f0037
89ac221
60f0037
 
89ac221
d419338
60f0037
d419338
8586c6d
d419338
 
60f0037
 
 
89ac221
 
 
 
 
60f0037
 
d419338
60f0037
d419338
89ac221
 
d419338
60f0037
a4de15e
d419338
60f0037
 
 
89ac221
60f0037
 
 
89ac221
8586c6d
60f0037
 
d419338
 
60f0037
 
 
 
 
 
d419338
60f0037
89ac221
60f0037
 
d419338
 
 
89ac221
 
 
d419338
 
60f0037
d419338
60f0037
d419338
 
89ac221
 
d419338
 
89ac221
d419338
89ac221
60f0037
8586c6d
60f0037
 
89ac221
 
8586c6d
60f0037
 
d419338
89ac221
 
 
d419338
89ac221
d419338
 
 
 
 
 
60f0037
8586c6d
89ac221
60f0037
 
 
8586c6d
89ac221
60f0037
d419338
 
60f0037
d419338
 
 
 
 
 
 
60f0037
d419338
89ac221
d419338
89ac221
 
d419338
60f0037
8586c6d
 
60f0037
d419338
60f0037
8586c6d
 
 
 
 
 
d419338
60f0037
89ac221
60f0037
 
d419338
89ac221
 
60f0037
 
 
 
 
 
 
 
 
 
 
 
 
 
8586c6d
60f0037
 
 
 
89ac221
60f0037
89ac221
60f0037
 
89ac221
 
 
 
 
60f0037
 
d419338
60f0037
 
89ac221
60f0037
 
 
89ac221
d419338
89ac221
d419338
 
60f0037
d419338
60f0037
 
89ac221
60f0037
89ac221
60f0037
89ac221
 
60f0037
 
 
89ac221
60f0037
 
89ac221
 
60f0037
89ac221
 
60f0037
 
 
8586c6d
89ac221
 
8586c6d
60f0037
 
 
 
8586c6d
 
60f0037
 
89ac221
60f0037
 
8586c6d
 
60f0037
 
 
 
 
 
8586c6d
 
60f0037
 
 
 
 
 
 
 
 
89ac221
60f0037
 
 
 
8586c6d
89ac221
 
 
 
 
 
d419338
60f0037
 
d419338
60f0037
d419338
 
 
60f0037
 
 
 
d419338
60f0037
d419338
60f0037
 
d419338
 
 
 
60f0037
d419338
 
 
 
60f0037
 
d419338
 
 
 
60f0037
89ac221
60f0037
d419338
60f0037
 
 
d419338
8586c6d
 
 
d419338
 
60f0037
 
 
d419338
60f0037
 
d419338
 
60f0037
d419338
 
 
89ac221
60f0037
 
 
 
 
89ac221
 
 
 
 
60f0037
89ac221
 
 
 
60f0037
89ac221
60f0037
 
 
 
 
 
 
 
 
 
 
d419338
 
89ac221
60f0037
 
 
 
8586c6d
60f0037
 
 
8586c6d
89ac221
60f0037
 
d419338
60f0037
 
 
 
 
d419338
89ac221
8586c6d
60f0037
89ac221
d419338
60f0037
 
89ac221
60f0037
 
 
 
89ac221
 
 
60f0037
89ac221
60f0037
89ac221
60f0037
89ac221
 
 
 
60f0037
89ac221
 
60f0037
89ac221
 
60f0037
89ac221
 
60f0037
89ac221
60f0037
89ac221
60f0037
 
89ac221
60f0037
 
89ac221
 
60f0037
89ac221
60f0037
 
89ac221
 
60f0037
89ac221
60f0037
89ac221
 
60f0037
89ac221
60f0037
 
89ac221
60f0037
 
89ac221
60f0037
 
89ac221
60f0037
89ac221
 
60f0037
89ac221
 
60f0037
89ac221
60f0037
 
89ac221
 
60f0037
89ac221
60f0037
 
89ac221
60f0037
 
 
 
 
 
 
 
 
 
 
 
 
 
89ac221
60f0037
8586c6d
60f0037
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
89ac221
8586c6d
89ac221
60f0037
89ac221
60f0037
89ac221
 
 
 
 
 
60f0037
 
89ac221
 
 
 
 
 
 
 
 
 
 
 
 
60f0037
89ac221
 
 
 
 
 
 
 
 
 
 
 
60f0037
 
 
 
 
 
 
 
 
8586c6d
d419338
60f0037
 
d419338
60f0037
89ac221
d419338
60f0037
 
8586c6d
60f0037
a4de15e
 
 
d419338
 
 
60f0037
d419338
 
60f0037
89ac221
60f0037
89ac221
d419338
60f0037
 
 
 
89ac221
60f0037
 
89ac221
60f0037
d419338
89ac221
60f0037
 
89ac221
 
 
 
60f0037
 
89ac221
60f0037
 
d419338
60f0037
8586c6d
60f0037
89ac221
60f0037
 
 
 
8586c6d
 
60f0037
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
553
554
555
556
557
558
559
560
561
562
563
564
565
566
567
568
569
570
571
572
573
574
575
576
577
578
579
580
581
582
583
584
585
586
587
588
589
590
591
592
593
594
595
596
597
598
599
600
601
602
603
604
605
606
607
608
609
610
611
612
613
614
615
616
617
618
619
620
621
622
623
624
625
626
627
628
629
630
631
632
633
634
635
636
637
638
639
640
641
642
643
644
645
646
647
648
649
650
651
652
653
654
655
656
657
658
659
660
661
662
663
664
665
666
667
668
669
670
671
672
673
674
675
676
677
678
679
680
681
682
683
684
685
686
687
688
689
690
691
692
693
694
695
696
697
698
699
700
701
702
703
704
705
706
707
708
709
710
711
712
713
714
715
716
717
718
719
720
721
722
723
724
725
726
727
728
729
730
731
732
733
734
735
736
737
738
739
740
741
742
743
744
745
746
747
748
749
750
751
752
753
754
755
756
757
758
759
760
761
762
763
764
765
766
767
768
769
770
771
772
773
774
775
776
777
778
779
780
781
782
783
784
785
786
787
788
789
790
791
792
793
794
795
796
797
798
799
800
801
802
803
804
805
806
807
808
809
810
811
812
813
814
815
816
817
818
819
820
821
822
823
824
825
826
827
828
829
830
831
832
833
834
835
836
837
838
839
840
841
842
843
844
845
846
847
848
849
850
851
852
853
854
855
856
857
858
859
860
861
862
863
864
865
866
867
868
869
870
871
872
873
874
875
876
877
878
879
880
881
882
883
884
885
886
887
888
889
# --- Imports ---
import gradio as gr
from openai import OpenAI
import openai # Import top-level for error types
from pydantic import BaseModel, Field
import os
import requests
from PIL import Image
import tempfile
import io # For BytesIO
import markdown # Required by gr.Markdown implicitly
import base64
import datetime
import json
import re # For cleaning JSON
from dotenv import load_dotenv

# --- Configuration Initiale ---
load_dotenv() # Charge les variables depuis un fichier .env s'il existe

# Clé OpenRouter
openrouter_api_key = os.getenv("OPENROUTER_API_KEY")
# Modèle OpenRouter par défaut (Utilise un modèle gratuit si disponible)
OPENROUTER_TEXT_MODEL = os.getenv("OPENROUTER_TEXT_MODEL", "google/gemini-2.5-pro-exp-03-25:free") # Fallback si non défini

# Modèles OpenAI (utilisés si clé fournie)
OPENAI_TEXT_MODEL = "gpt-4o-mini" # ou "gpt-4o"
OPENAI_IMAGE_MODEL = "dall-e-3"

# --- Modèles Pydantic (Inchangé) ---
class BiasInfo(BaseModel):
    bias_type: str = Field(..., description="Type de biais identifié (ex: Stéréotype de genre, Biais de confirmation)")
    explanation: str = Field(..., description="Explication de pourquoi cela pourrait être un biais dans ce contexte.")
    advice: str = Field(..., description="Conseil spécifique pour atténuer ce biais.")

class BiasAnalysisResponse(BaseModel):
    detected_biases: list[BiasInfo] = Field(default_factory=list, description="Liste des biais potentiels détectés.")
    overall_comment: str = Field(default="", description="Commentaire général ou indication si aucun biais majeur n'est détecté.")

# --- Fonctions Utilitaires ---

# Dictionnaires de correspondance (Inchangés)
posture_mapping = {"": "","Debout": "standing up","Assis": "sitting","Allongé": "lying down","Accroupi": "crouching","En mouvement": "moving","Reposé": "resting"}
facial_expression_mapping = {"": "","Souriant": "smiling","Sérieux": "serious","Triste": "sad","En colère": "angry","Surpris": "surprised","Pensif": "thoughtful"}
skin_color_mapping = {"": "","Clair": "light","Moyen": "medium","Foncé": "dark","Très foncé": "very dark"}
eye_color_mapping = {"": "","Bleu": "blue","Vert": "green","Marron": "brown","Gris": "gray"}
hair_style_mapping = {"": "","Court": "short","Long": "long","Bouclé": "curly","Rasé": "shaved","Chauve": "bald","Tresses": "braided","Queue de cheval": "ponytail","Coiffure afro": "afro","Dégradé": "fade"}
hair_color_mapping = {"": "","Blond": "blonde","Brun": "brown","Noir": "black","Roux": "red","Gris": "gray","Blanc": "white"}
clothing_style_mapping = {"": "","Décontracté": "casual","Professionnel": "professional","Sportif": "sporty"}
accessories_mapping = {"": "","Lunettes": "glasses","Montre": "watch","Chapeau": "hat"}

# Fonction de mise à jour du journal
MAX_LOG_LINES = 150
def update_log(event_description, session_log_state):
    """Ajoute une entrée au log et le retourne, en limitant sa taille."""
    timestamp = datetime.datetime.now().strftime("%Y-%m-%d %H:%M:%S")
    new_log_entry = f"[{timestamp}] {event_description}"
    current_log = session_log_state if session_log_state else ""
    log_lines = current_log.splitlines()
    if len(log_lines) >= MAX_LOG_LINES:
        current_log = "\n".join(log_lines[-(MAX_LOG_LINES-1):])
    updated_log = current_log + "\n" + new_log_entry if current_log else new_log_entry
    return updated_log.strip()

# Fonction de nettoyage JSON
def clean_json_response(raw_response):
    """Tente d'extraire un bloc JSON valide d'une réponse LLM potentiellement bruitée."""
    match = re.search(r"```json\s*({.*?})\s*```", raw_response, re.DOTALL | re.IGNORECASE)
    if match:
        return match.group(1)
    start = raw_response.find('{')
    end = raw_response.rfind('}')
    if start != -1 and end != -1 and end > start:
        potential_json = raw_response[start:end+1]
        try:
            json.loads(potential_json)
            return potential_json
        except json.JSONDecodeError:
            cleaned = re.sub(r",\s*([}\]])", r"\1", potential_json)
            try:
                json.loads(cleaned)
                return cleaned
            except json.JSONDecodeError:
                pass
    return raw_response.strip()

# --- Holder pour Client API Actif (hors gr.Blocks) ---
active_api_client_holder = {
    "client": None,
    "openai_key": None
}

# --- Fonctions Principales de l'Application ---

def get_active_client(app_config):
    """Récupère le client stocké globalement."""
    api_source = app_config.get("api_source")
    if not api_source:
        return None, "Source API non configurée."
    client = active_api_client_holder.get("client")
    if not client:
        print("WARN: Client actif non trouvé, tentative de ré-initialisation.")
        # Tentative de ré-initialisation (utile si script rechargé)
        if api_source == "openai" and active_api_client_holder.get("openai_key"):
            try:
                client = OpenAI(api_key=active_api_client_holder["openai_key"])
                active_api_client_holder["client"] = client
                print("Client OpenAI ré-initialisé.")
            except Exception as e: return None, f"Échec ré-initialisation client OpenAI: {e}"
        elif api_source == "openrouter" and openrouter_api_key:
            try:
                client = OpenAI(base_url="[https://openrouter.ai/api/v1](https://openrouter.ai/api/v1)", api_key=openrouter_api_key)
                active_api_client_holder["client"] = client
                print("Client OpenRouter ré-initialisé.")
            except Exception as e: return None, f"Échec ré-initialisation client OpenRouter: {e}"
        else:
            return None, f"Impossible de ré-initialiser le client pour '{api_source}'. Clé ou config manquante."
    if not client:
        return None, f"Client API pour '{api_source}' non disponible."
    return client, None

def analyze_biases(app_config, objective_text, session_log_state):
    """Analyse les biais dans l'objectif marketing."""
    log = session_log_state
    log = update_log(f"Analyse biais objectif (début): '{objective_text[:50]}...'", log)
    if not objective_text:
        return BiasAnalysisResponse(overall_comment="Veuillez fournir un objectif marketing.").dict(), update_log("Analyse biais: Objectif vide.", log)

    active_client, error_msg = get_active_client(app_config)
    if error_msg:
        log = update_log(f"ERREUR Analyse biais: {error_msg}", log)
        return BiasAnalysisResponse(overall_comment=f"Erreur: {error_msg}").dict(), log

    model_name = app_config["text_model"]
    system_prompt = f"""
    Vous êtes un expert en marketing éthique et en psychologie cognitive, spécialisé dans la création de personas.
    Analysez l'objectif marketing suivant : "{objective_text}"

    Identifiez les BIAIS COGNITIFS POTENTIELS ou RISQUES DE STÉRÉOTYPES pertinents pour la création de personas. Concentrez-vous sur :
    1.  **Stéréotypes / Généralisations hâtives :** Suppose-t-on des traits basés sur des groupes (genre, âge, ethnie, statut socio-économique...) sans justification ? (Ex: 'tous les jeunes urbains sont écolos')
    2.  **Biais de confirmation / d'affinité :** L'objectif semble-t-il chercher à valider une idée préconçue ou refléter trop les opinions du concepteur ? (Ex: 'prouver que notre produit est parfait pour CE type de personne')
    3.  **Simplification excessive / Manque de nuance :** Le groupe cible est-il décrit de manière trop monolithique, ignorant la diversité interne ? (Ex: 'les seniors actifs' sans différencier leurs motivations ou capacités)
    4.  **Autres biais pertinents** (Ex: Oubli de fréquence de base, Biais de normalité...).

    Pour chaque biais potentiel identifié :
    - Nommez le type de biais (ex: Stéréotype d'âge).
    - Expliquez brièvement POURQUOI c'est un risque DANS CE CONTEXTE de création de persona.
    - Proposez un CONSEIL PRÉCIS pour nuancer l'objectif ou être vigilant lors de la création.

    Structurez votre réponse en utilisant le format JSON suivant (schéma Pydantic BiasAnalysisResponse):
    {{
        "detected_biases": [
            {{
                "bias_type": "Type de biais identifié",
                "explanation": "Explication contextuelle du risque.",
                "advice": "Conseil spécifique d'atténuation."
            }}
        ],
        "overall_comment": "Bref commentaire général. Indiquez si aucun biais majeur n'est détecté."
    }}
    Répondez en français. S'il n'y a pas de biais clair, retournez une liste 'detected_biases' vide et indiquez-le dans 'overall_comment'.
    """
    response_content_str = ""
    try:
        completion = active_client.chat.completions.create(
            model=model_name,
            messages=[{"role": "user", "content": system_prompt}],
            temperature=0.4, max_tokens=800,
            response_format={"type": "json_object"},
        )
        response_content_str = completion.choices[0].message.content
        cleaned_response_str = clean_json_response(response_content_str)
        try:
            parsed_response = BiasAnalysisResponse.parse_raw(cleaned_response_str)
            log = update_log(f"Analyse biais objectif (fin): Biais trouvés - {len(parsed_response.detected_biases)}", log)
            return parsed_response.dict(), log
        except Exception as parse_error:
             error_msg = f"Erreur parsing JSON après nettoyage: {parse_error}. Réponse nettoyée: '{cleaned_response_str[:200]}...'"
             print(error_msg)
             log = update_log(f"ERREUR Analyse biais parsing: {parse_error}", log)
             return BiasAnalysisResponse(overall_comment=f"Erreur technique parsing réponse: {parse_error}").dict(), log
    except openai.AuthenticationError as e:
        error_msg = f"Erreur authentification API ({app_config.get('api_source', 'Inconnu')}). Vérifiez clé."
        print(error_msg); log = update_log(f"ERREUR API Auth: {error_msg}", log)
        return BiasAnalysisResponse(overall_comment=error_msg).dict(), log
    except openai.RateLimitError as e:
        error_msg = f"Erreur API ({app_config.get('api_source', 'Inconnu')}): Limite de taux atteinte."
        print(error_msg); log = update_log(f"ERREUR API RateLimit: {error_msg}", log)
        return BiasAnalysisResponse(overall_comment=error_msg).dict(), log
    except Exception as e:
        error_msg = f"Erreur pendant analyse biais: {str(e)}. Réponse brute: '{response_content_str[:200]}...'"
        print(error_msg); log = update_log(f"ERREUR Analyse biais API Call: {str(e)}", log)
        return BiasAnalysisResponse(overall_comment=f"Erreur technique analyse: {str(e)}").dict(), log

# --- display_bias_analysis (Unchanged from V2) ---
def display_bias_analysis(analysis_result):
    """Formate l'analyse des biais pour l'affichage."""
    if not analysis_result: return [("Aucune analyse effectuée.", None)]
    biases = analysis_result.get("detected_biases", [])
    overall_comment = analysis_result.get("overall_comment", "")
    highlighted_data = []
    if "Erreur" in overall_comment: highlighted_data.append((overall_comment, "ERROR"))
    elif not biases: highlighted_data.append((overall_comment or "Aucun biais majeur détecté.", "INFO"))
    else:
        if overall_comment: highlighted_data.append((overall_comment + "\n\n", "COMMENT"))
        for bias_info in biases:
            highlighted_data.append((f"⚠️ {bias_info.get('bias_type', 'Type inconnu')}: ", "BIAS_TYPE"))
            highlighted_data.append((f"{bias_info.get('explanation', 'Pas d’explication.')}\n", "EXPLANATION"))
            highlighted_data.append((f"💡 Conseil: {bias_info.get('advice', 'Pas de conseil.')}\n", "ADVICE"))
    return highlighted_data

def generate_persona_image(app_config, *args):
    """Génère l'image du persona."""
    inputs = args[:-1]
    session_log_state = args[-1]
    log = session_log_state
    (first_name, last_name, age, gender, persona_description_en,
     skin_color, eye_color, hair_style, hair_color, facial_expression,
     posture, clothing_style, accessories) = inputs

    if not app_config.get("image_generation_enabled", False):
        log = update_log("Génération image: Désactivée (clé API OpenAI non fournie/valide).", log)
        return None, log, "Génération d'image désactivée. Veuillez fournir une clé API OpenAI valide."

    openai_client, error_msg = get_active_client(app_config)
    if error_msg or app_config.get("api_source") != "openai":
        final_error = f"Erreur interne/config pour génération image: {error_msg or 'Client non OpenAI actif'}"
        log = update_log(f"ERREUR Génération image: {final_error}", log); return None, log, final_error
    if not first_name or not last_name or not age or not gender:
        return None, log, "Veuillez remplir prénom, nom, âge et genre pour générer l'image."

    prompt_parts = [f"one person only, close-up portrait photo of {first_name} {last_name}, a {gender} aged {age}."]
    if skin_color_mapping.get(skin_color): prompt_parts.append(f"Skin tone: {skin_color_mapping[skin_color]}.")
    if eye_color_mapping.get(eye_color): prompt_parts.append(f"Eye color: {eye_color_mapping[eye_color]}.")
    if hair_style_mapping.get(hair_style): prompt_parts.append(f"Hairstyle: {hair_style_mapping[hair_style]}.")
    if hair_color_mapping.get(hair_color): prompt_parts.append(f"Hair color: {hair_color_mapping[hair_color]}.")
    if facial_expression_mapping.get(facial_expression): prompt_parts.append(f"Facial expression: {facial_expression_mapping[facial_expression]}.")
    if posture_mapping.get(posture): prompt_parts.append(f"Posture: {posture_mapping[posture]}.")
    if clothing_style_mapping.get(clothing_style): prompt_parts.append(f"Clothing style: {clothing_style_mapping[clothing_style]}.")
    if accessories_mapping.get(accessories): prompt_parts.append(f"Wearing: {accessories_mapping[accessories]}.")
    if persona_description_en: prompt_parts.append(f"Background or context: {persona_description_en}.")
    prompt_parts.append("Realistic photo style, high detail, natural lighting.")
    final_prompt = " ".join(prompt_parts)
    log = update_log(f"Génération image (début): Prompt='{final_prompt[:100]}...'", log)

    try:
        response = openai_client.images.generate(
            model=OPENAI_IMAGE_MODEL, prompt=final_prompt, size="1024x1024", n=1,
            response_format="url", quality="standard", style="natural"
        )
        image_url = response.data[0].url
        img_response = requests.get(image_url)
        img_response.raise_for_status()
        pil_image = Image.open(io.BytesIO(img_response.content))
        log = update_log("Génération image (fin): Succès.", log)
        return pil_image, log, None
    except openai.AuthenticationError as e:
        error_msg = "Erreur authentification API OpenAI. Vérifiez clé."
        print(error_msg); log = update_log(f"ERREUR API Auth (Image): {error_msg}", log)
        return None, log, error_msg
    except openai.RateLimitError as e:
        error_msg = "Erreur API OpenAI (Image): Limite de taux atteinte."
        print(error_msg); log = update_log(f"ERREUR API RateLimit (Image): {error_msg}", log)
        return None, log, error_msg
    except openai.BadRequestError as e:
        error_msg = f"Erreur API OpenAI (Image): Requête invalide (prompt refusé?). Détails: {e}"
        print(error_msg); log = update_log(f"ERREUR API BadRequest (Image): {error_msg}", log)
        return None, log, error_msg
    except Exception as e:
        error_msg = f"Erreur lors génération image: {str(e)}"
        print(error_msg); log = update_log(f"ERREUR Génération image: {str(e)}", log)
        return None, log, error_msg

def refine_persona_details(app_config, first_name, last_name, age, field_name, field_value, bias_analysis_dict, marketing_objectives, session_log_state):
    """Affine les détails du persona via le système d'IA."""
    log = session_log_state
    log = update_log(f"Raffinement (début): Champ='{field_name}', Valeur initiale='{field_value[:50]}...'", log)
    active_client, error_msg = get_active_client(app_config)
    if error_msg:
        log = update_log(f"ERREUR Raffinement: {error_msg}", log)
        return log, f"ERREUR: {error_msg}", field_name # Return error and field name for display context

    model_name = app_config["text_model"]
    biases_text = "Aucune analyse de biais précédente disponible."
    if bias_analysis_dict:
        try:
            detected_biases = bias_analysis_dict.get("detected_biases", [])
            if detected_biases:
                biases_text = "\n".join([f"- {b.get('bias_type','N/A')}: {b.get('explanation','N/A')}" for b in detected_biases])
            else:
                biases_text = bias_analysis_dict.get("overall_comment", "Aucun biais majeur détecté lors de l'analyse initiale.")
        except Exception as e:
            biases_text = f"Erreur lecture biais analysés: {e}"
            log = update_log(f"ERREUR Lecture Biais Dict pour Raffinement: {e}", log)

    system_prompt = f"""
    Vous êtes un assistant expert en marketing éthique, aidant à affiner le persona marketing pour '{first_name} {last_name}' ({age} ans).
    L'objectif marketing initial était : "{marketing_objectives}"
    L'analyse initiale de cet objectif a soulevé les points suivants :
    {biases_text}

    Tâche : Concentrez-vous UNIQUEMENT sur le champ '{field_name}' dont la valeur actuelle est '{field_value}'.
    Proposez 1 à 2 suggestions CONCISES et ACTIONNABLES pour améliorer, nuancer ou enrichir cette valeur.
    Vos suggestions doivent viser à :
    - Rendre le persona plus réaliste et moins cliché.
    - ATTÉNUER spécifiquement les biais potentiels listés ci-dessus s'ils sont pertinents pour ce champ.
    - Rester cohérent avec l'objectif marketing général.
    - Éviter les généralisations excessives.

    Si la valeur actuelle semble bonne ou si vous manquez de contexte pour suggérer, indiquez-le simplement (ex: "La valeur actuelle semble appropriée.").
    Répondez en français. Ne fournissez QUE les suggestions ou le commentaire d'approbation/manque de contexte. Ne répétez pas la question. Ne vous excusez pas.
    """
    suggestions = ""
    try:
        response = active_client.chat.completions.create(
            model=model_name,
            messages=[{"role": "user", "content": system_prompt}],
            temperature=0.6, max_tokens=150,
        )
        suggestions = response.choices[0].message.content.strip()
        log = update_log(f"Raffinement (fin): Champ='{field_name}'. Suggestions: '{suggestions[:50]}...'", log)
        # Return log, suggestion, and field name for display context
        return log, suggestions, field_name
    except openai.AuthenticationError as e:
        error_msg = f"Erreur authentification API ({app_config.get('api_source', 'Inconnu')}) pendant raffinement."
        print(error_msg); log = update_log(f"ERREUR API Auth (Refine): {error_msg}", log)
        return log, f"ERREUR: {error_msg}", field_name
    except openai.RateLimitError as e:
        error_msg = f"Erreur API ({app_config.get('api_source', 'Inconnu')}) (Refine): Limite de taux atteinte."
        print(error_msg); log = update_log(f"ERREUR API RateLimit (Refine): {error_msg}", log)
        return log, f"ERREUR: {error_msg}", field_name
    except Exception as e:
        error_msg = f"Erreur lors du raffinement pour '{field_name}': {str(e)}"
        print(error_msg); log = update_log(f"ERREUR Raffinement '{field_name}': {str(e)}", log)
        return log, f"ERREUR: {error_msg}", field_name

def generate_summary(persona_image_pil, *args):
    """Génère le résumé HTML du persona."""
    # Args structure: first_name, ..., references, session_log_state
    session_log_state = args[-1]
    inputs = args[:-1]
    log = session_log_state
    (first_name, last_name, age, gender, persona_description_en,
     skin_color, eye_color, hair_style, hair_color, facial_expression, posture, clothing_style, accessories,
     marital_status, education_level, profession, income,
     personality_traits, values_beliefs, motivations, hobbies_interests,
     main_responsibilities, daily_activities, technology_relationship,
     product_related_activities, pain_points, product_goals, usage_scenarios,
     brand_relationship, market_segment, commercial_objectives,
     visual_codes, special_considerations, daily_life, references
     ) = inputs

    log = update_log(f"Génération résumé: Pour '{first_name} {last_name}'.", log)
    summary = ""
    image_html = "<div style='flex: 0 0 320px; margin-left: 20px; text-align: center; align-self: flex-start;'>\n"

    if not first_name or not last_name or not age:
        summary += "<h2>Informations de base manquantes</h2>\n"
        summary += "<p><i>Veuillez fournir au moins le prénom, le nom et l'âge (Étape 2).</i></p>\n"
        image_html += "<p>Image non générée.</p>\n"
    else:
        if persona_image_pil and isinstance(persona_image_pil, Image.Image):
            try:
                buffered = io.BytesIO()
                img_to_save = persona_image_pil.copy() # Work on a copy
                if img_to_save.mode == 'RGBA' or 'transparency' in img_to_save.info:
                    img_to_save = img_to_save.convert('RGB')
                img_to_save.save(buffered, format="JPEG", quality=85) # Use JPEG, quality 85
                img_bytes = buffered.getvalue()
                img_base64 = base64.b64encode(img_bytes).decode()
                img_data_url = f"data:image/jpeg;base64,{img_base64}"
                # Style pour l'image : largeur max 100%, hauteur auto pour responsivité dans la colonne
                image_html += f"<img src='{img_data_url}' alt='Persona {first_name}' style='max-width: 100%; height: auto; border: 1px solid #eee; border-radius: 5px; margin-top: 10px;'/>\n"
            except Exception as e:
                img_err_msg = f"Erreur encodage image: {e}"
                image_html += f"<p><i>{img_err_msg}</i></p>\n"
                log = update_log(f"ERREUR Encodage Image Résumé: {e}", log)
        else:
            image_html += "<p><i>Aucune image générée ou disponible.</i></p>\n"

        summary += f"<div style='text-align: center;'><h1>{first_name} {last_name}, {age} ans ({gender})</h1></div>\n"

        def add_section(title, fields):
            content = ""
            for label, value in fields.items():
                should_add = (label == "Revenus annuels (€)" and value is not None) or (label != "Revenus annuels (€)" and value)
                if should_add:
                    if label == "Revenus annuels (€)" and isinstance(value, (int, float)):
                        try: value_str = f"{int(value):,} €".replace(",", "&nbsp;")
                        except ValueError: value_str = str(value) + "&nbsp;€"
                    else: value_str = str(value)
                    value_str_html = markdown.markdown(value_str).replace('<p>', '').replace('</p>', '').strip().replace("\n", "<br>")
                    content += f"<b>{label}:</b> {value_str_html}<br>\n"
            if content: return f"<h3 style='margin-top: 15px; margin-bottom: 5px; border-bottom: 1px solid #eee; padding-bottom: 2px;'>{title}</h3>\n{content}\n"
            return ""

        summary += add_section("Infos socio-démographiques", {
            "État civil": marital_status, "Niveau d'éducation": education_level,
            "Profession": profession, "Revenus annuels (€)": income
        })
        summary += add_section("Psychographie", {
            "Traits de personnalité": personality_traits, "Valeurs et croyances": values_beliefs,
            "Motivations intrinsèques": motivations, "Hobbies et intérêts": hobbies_interests
        })
        summary += add_section("Relation au produit/service", {
            "Relation avec la technologie": technology_relationship,
            "Tâches liées au produit/service": product_related_activities,
            "Points de douleur (Pain points)": pain_points,
            "Objectifs d’utilisation du produit/service": product_goals,
            "Scénarios d’utilisation typiques": usage_scenarios
        })
        summary += add_section("Contexte professionnel/vie quotidienne", {
             "Responsabilités principales": main_responsibilities,
             "Activités journalières": daily_activities,
             "Une journée type / Citation": daily_life
        })
        summary += add_section("Marketing & considérations spéciales", {
             "Relation avec la marque": brand_relationship,
             "Segment de marché": market_segment,
             "Objectifs commerciaux (SMART)": commercial_objectives,
             "Codes visuels / Marques préférées": visual_codes,
             "Considérations spéciales (accessibilité, culture...)": special_considerations,
             "Références / Sources de données": references
        })
    image_html += "</div>\n"
    final_html = "<div style='display: flex; flex-wrap: wrap; align-items: flex-start; font-family: sans-serif; padding: 10px;'>\n"
    final_html += f"<div style='flex: 1; min-width: 350px; padding-right: 15px;'>\n{summary}</div>\n"
    final_html += image_html
    final_html += "</div>"
    return final_html, log

# --- Interface Gradio ---

# CSS personnalisé pour les suggestions
css = """
.suggestion-box {
    border: 1px solid #e0e0e0;
    border-radius: 5px;
    padding: 10px;
    margin-top: 10px;
    margin-bottom: 10px;
    background-color: #f9f9f9; /* Fond légèrement grisé */
}
.suggestion-box h4 { margin-top: 0; margin-bottom: 5px; }
"""

with gr.Blocks(theme=gr.themes.Glass(), css=css) as demo:
    # --- Titre et Description (Corrigés) ---
    gr.Markdown("# PersonaGenAI : Assistant de création de persona marketing")
    gr.Markdown("Outil d'aide à la création de personas, intégrant un système d'IA générative (OpenRouter ou OpenAI) pour stimuler la créativité et la réflexivité face aux biais.")

    # --- États Globaux (Corrigés) ---
    app_config_state = gr.State(value={
        "api_source": None, "text_model": None, "image_generation_enabled": False,
        "openai_key_provided": False, "openrouter_key_provided": bool(openrouter_api_key)
    })
    bias_analysis_result_state = gr.State(value={})
    persona_image_pil_state = gr.State(value=None)
    session_log_state = gr.State(value="")
    status_message_state = gr.State(value="")
    # État pour stocker la dernière suggestion d'affinement
    last_refinement_suggestion_state = gr.State(value=None) # Sera (field_name, suggestion_text)

    # --- Affichage Global Statut/Erreur (Corrigé) ---
    status_display = gr.Markdown(value="", elem_classes="status-message")
    def update_status_display(new_message, current_log):
        """Met à jour le statut et le log si pertinent."""
        if new_message and ("ERREUR" in new_message or "WARN" in new_message or ("Configuration" in new_message and "active" in new_message)):
            current_log = update_log(f"STATUS: {new_message}", current_log)
        return new_message, current_log

    # --- Onglets ---
    with gr.Tabs() as tabs:

        # --- Onglet 0 : Configuration API (Corrigé) ---
        with gr.Tab("🔑 Configuration API", id=-1):
            gr.Markdown("### Configuration des clés API")
            gr.Markdown("Ce outil utilise un système d'IA pour analyser et générer du contenu. Choisissez votre fournisseur d'API.")
            if openrouter_api_key:
                gr.Markdown("✅ Clé API **OpenRouter** trouvée (`OPENROUTER_API_KEY`).")
            else:
                gr.Markdown("❌ **Clé API OpenRouter (`OPENROUTER_API_KEY`) non trouvée.** OpenRouter ne fonctionnera pas sans clé (ou utilisez une clé OpenAI).")

            openai_api_key_input = gr.Textbox(
                label="Clé API OpenAI (optionnelle)", type="password",
                placeholder="Entrez votre clé OpenAI ici pour DALL-E 3 et GPT",
                info="Si fournie et valide : utilisée pour les images (DALL-E 3) ET le texte (GPT). Sinon : OpenRouter (si clé dispo) pour le texte, pas d'images."
            )
            configure_api_button = gr.Button("Appliquer la configuration API")
            api_status_display = gr.Markdown("Statut API : Non configuré.")

            def configure_api_clients(openai_key, current_config, current_log):
                """Valide les clés, configure le client actif et met à jour l'état de configuration."""
                openai_key_provided = bool(openai_key)
                openrouter_key_available = current_config["openrouter_key_provided"]
                status_msg = ""; config = current_config.copy()
                active_api_client_holder["client"] = None; active_api_client_holder["openai_key"] = None
                api_source = None; text_model = None; image_enabled = False; client_to_store = None

                if openai_key_provided:
                    try:
                        temp_client = OpenAI(api_key=openai_key)
                        temp_client.models.list() # Test auth/connexion
                        client_to_store = temp_client; active_api_client_holder["openai_key"] = openai_key
                        api_source = "openai"; text_model = OPENAI_TEXT_MODEL; image_enabled = True
                        status_msg = f"✅ Configuration **OpenAI** active (Modèle texte: `{text_model}`, Images: DALL-E 3 activé)."; config["openai_key_provided"] = True
                        current_log = update_log("Configuration: Client OpenAI initialisé et testé.", current_log)
                    except openai.AuthenticationError:
                         status_msg = "⚠️ Clé API OpenAI fournie mais **invalide**."; log_msg = f"ERREUR API Config OpenAI: Clé invalide."
                         current_log = update_log(log_msg, current_log); print(log_msg); config["openai_key_provided"] = False; openai_key_provided = False
                    except Exception as e:
                        status_msg = f"⚠️ Clé OpenAI fournie mais erreur connexion/test: {str(e)}."; log_msg = f"ERREUR API Config OpenAI: {e}"
                        current_log = update_log(log_msg, current_log); print(log_msg); config["openai_key_provided"] = False; openai_key_provided = False
                elif openrouter_key_available:
                    try:
                        temp_client = OpenAI(base_url="[https://openrouter.ai/api/v1](https://openrouter.ai/api/v1)", api_key=openrouter_api_key)
                        # Optionnel : Test pour OpenRouter (peut être lent ou échouer sans bloquer)
                        # try: temp_client.models.list(); current_log = update_log("Config: Client OpenRouter testé.", current_log)
                        # except Exception as test_e: current_log = update_log(f"WARN: Test OpenRouter échoué: {test_e}", current_log)
                        client_to_store = temp_client; api_source = "openrouter"; text_model = OPENROUTER_TEXT_MODEL; image_enabled = False
                        status_msg = f"✅ Configuration **OpenRouter** active (Modèle texte: `{text_model}`, Images: Désactivé)."; config["openai_key_provided"] = False
                        current_log = update_log("Configuration: Client OpenRouter initialisé.", current_log)
                    except Exception as e:
                        status_msg = f"❌ Erreur initialisation OpenRouter (clé: {'Oui' if openrouter_api_key else 'Non'}): {e}."; log_msg = f"ERREUR API Config OpenRouter: {e}"
                        current_log = update_log(log_msg, current_log); print(log_msg); client_to_store = None; api_source = None; text_model = None; image_enabled = False; config["openai_key_provided"] = False
                else:
                     if not openai_key_provided and not openrouter_key_available: status_msg = "❌ Aucune clé API valide (OpenAI ou OpenRouter) disponible/configurée."
                     elif not openrouter_key_available:
                          if "OpenAI fournie mais" not in status_msg: status_msg = "❌ Clé OpenAI invalide ou erreur."
                          status_msg += " Pas d'alternative OpenRouter disponible."
                     else: status_msg = "❌ Impossible de configurer un client API."
                     client_to_store = None; api_source = None; text_model = None; image_enabled = False; config["openai_key_provided"] = False

                active_api_client_holder["client"] = client_to_store
                config["api_source"] = api_source; config["text_model"] = text_model; config["image_generation_enabled"] = image_enabled
                log_msg = f"Config API appliquée. Source: {api_source or 'Aucune'}, Images: {'Actif' if image_enabled else 'Inactif'}."
                if not any(phrase in current_log.splitlines()[-1] for phrase in ["Client OpenAI initialisé", "Client OpenRouter initialisé"]) : current_log = update_log(log_msg, current_log)
                return config, status_msg, current_log

            configure_api_button.click(
                fn=configure_api_clients,
                inputs=[openai_api_key_input, app_config_state, session_log_state],
                outputs=[app_config_state, api_status_display, session_log_state]
            )

        # --- Onglet 1 : Objectif & Analyse Biais (Corrigé) ---
        with gr.Tab("🎯 Étape 1 : Objectif & analyse biais", id=0):
            gr.Markdown("### 1. Définissez votre objectif marketing")
            gr.Markdown("Décrivez pourquoi vous créez ce persona. Un système d'IA analysera votre objectif pour identifier des biais cognitifs potentiels.")
            with gr.Row():
                objective_input = gr.Textbox(label="Objectif marketing pour ce persona", lines=4, scale=3)
                with gr.Column(scale=1):
                    gr.Markdown("<small>Suggestions :</small>")
                    suggestion_button1 = gr.Button("Exemple 1 : Service écologique urbain", size="sm")
                    suggestion_button2 = gr.Button("Exemple 2 : App fitness seniors", size="sm")
            analyze_button = gr.Button("🔍 Analyser l'objectif (biais)")
            gr.Markdown("---")
            gr.Markdown("### Analyse des biais potentiels")
            bias_analysis_output_highlighted = gr.HighlightedText(
                label="Biais détectés et conseils", show_legend=True,
                color_map={"BIAS_TYPE": "red", "EXPLANATION": "lightgray", "ADVICE": "green", "INFO": "blue", "COMMENT": "orange", "ERROR": "darkred"}
            )
            gr.Markdown("---")
            gr.Markdown("### 🤔 Réflexion")
            user_reflection_on_biases = gr.Textbox(
                label="Comment comptez-vous utiliser cette analyse pour la suite ?", lines=2,
                placeholder="Ex: Je vais veiller à ne pas tomber dans le stéréotype X, je vais chercher des données pour nuancer Y..."
            )
            log_reflection_button = gr.Button("📝 Enregistrer la réflexion", size='sm')

            suggestion1_text = "Créer un persona pour promouvoir un nouveau service de livraison écologique destiné aux jeunes professionnels urbains soucieux de l'environnement (25-35 ans). Il doit incarner ces valeurs et besoins."
            suggestion2_text = "Développer une application mobile de fitness personnalisée pour les seniors actifs (+65 ans) cherchant à maintenir une vie saine et sociale. Le persona doit refléter leurs besoins (facilité, convivialité)."
            suggestion_button1.click(lambda: suggestion1_text, outputs=objective_input)
            suggestion_button2.click(lambda: suggestion2_text, outputs=objective_input)

            analyze_button.click(
                fn=analyze_biases, # Renommé
                inputs=[app_config_state, objective_input, session_log_state],
                outputs=[bias_analysis_result_state, session_log_state]
            ).then(
                fn=display_bias_analysis, # Renommé
                inputs=bias_analysis_result_state,
                outputs=bias_analysis_output_highlighted
            ).then(
                fn=lambda result, log: update_status_display(result.get("overall_comment", "") if "Erreur" in result.get("overall_comment", "") else "", log),
                inputs=[bias_analysis_result_state, session_log_state],
                outputs=[status_display, session_log_state]
            )
            def log_user_reflection(reflection_text, log_state):
                if reflection_text: return update_log(f"Réflexion utilisateur (Étape 1): '{reflection_text}'", log_state)
                return log_state
            log_reflection_button.click(log_user_reflection, [user_reflection_on_biases, session_log_state], [session_log_state])

        # --- Onglet 2 : Image & Infos Base (Corrigé) ---
        with gr.Tab("👤 Étape 2 : Image & infos de base", id=1):
            gr.Markdown("### 2. Créez l'identité visuelle et les informations de base")
            with gr.Row():
                with gr.Column(scale=1):
                    first_name_input = gr.Textbox(label="Prénom")
                    last_name_input = gr.Textbox(label="Nom")
                    age_input = gr.Slider(label="Âge", minimum=18, maximum=100, step=1, value=30)
                    gender_input = gr.Radio(label="Genre", choices=["Homme", "Femme", "Non-binaire"], value="Homme")
                    persona_description_en_input = gr.Textbox(
                        label="Contexte/activité pour l'image (optionnel, anglais)", lines=1,
                        info="Ex: 'reading a book in a cafe', 'working on laptop', 'hiking'"
                    )
                    with gr.Accordion("🎨 Détails visuels (optionnel)", open=False):
                        with gr.Row():
                            skin_color_input = gr.Dropdown(label="Teint", choices=list(skin_color_mapping.keys()), value="")
                            eye_color_input = gr.Dropdown(label="Yeux", choices=list(eye_color_mapping.keys()), value="")
                        with gr.Row():
                            hair_style_input = gr.Dropdown(label="Coiffure", choices=list(hair_style_mapping.keys()), value="")
                            hair_color_input = gr.Dropdown(label="Cheveux (couleur)", choices=list(hair_color_mapping.keys()), value="")
                        with gr.Row():
                            facial_expression_input = gr.Dropdown(label="Expression", choices=list(facial_expression_mapping.keys()), value="")
                            posture_input = gr.Dropdown(label="Posture", choices=list(posture_mapping.keys()), value="")
                        with gr.Row():
                            clothing_style_input = gr.Dropdown(label="Style vêtements", choices=list(clothing_style_mapping.keys()), value="")
                            accessories_input = gr.Dropdown(label="Accessoires", choices=list(accessories_mapping.keys()), value="")
                        reset_visuals_button = gr.Button("Réinitialiser détails visuels", size="sm")
                with gr.Column(scale=1):
                    # Image display
                    persona_image_output = gr.Image(
                        label="Image du persona", type="pil",
                        interactive=False
                    )
                    generate_image_button = gr.Button("🖼️ Générer / Mettre à jour l'image", interactive=False)
                    gr.Markdown("<small>💡 **Attention :** Les systèmes d'IA génératrice d'images peuvent reproduire des stéréotypes. La génération d'image nécessite une clé API OpenAI valide.</small>", elem_classes="warning")

            visual_inputs = [skin_color_input, eye_color_input, hair_style_input, hair_color_input, facial_expression_input, posture_input, clothing_style_input, accessories_input]
            reset_visuals_button.click(lambda: [""] * len(visual_inputs), outputs=visual_inputs)

            def handle_image_generation(*args):
                """Gère l'appel et les messages pour la génération d'image."""
                app_config = args[0]; log_state = args[-1]; persona_inputs = args[1:-1]
                pil_image, updated_log, error_message = generate_persona_image(app_config, *persona_inputs, log_state) # Renommé
                status_update_msg = ""; info_popup_msg = None
                if error_message:
                    if "Veuillez remplir" in error_message or "désactivée" in error_message: info_popup_msg = error_message
                    else: status_update_msg = error_message # Erreurs API/internes dans le statut
                if info_popup_msg: gr.Info(info_popup_msg)
                return pil_image, updated_log, status_update_msg

            generate_image_inputs = [app_config_state, first_name_input, last_name_input, age_input, gender_input, persona_description_en_input] + visual_inputs + [session_log_state]
            generate_image_outputs = [persona_image_pil_state, session_log_state, status_message_state]
            generate_image_button.click(
                fn=handle_image_generation, inputs=generate_image_inputs, outputs=generate_image_outputs
            ).then(
                fn=lambda img_state: img_state, inputs=persona_image_pil_state, outputs=persona_image_output
            ).then(
                fn=update_status_display, inputs=[status_message_state, session_log_state], outputs=[status_display, session_log_state]
            )
            app_config_state.change(
                fn=lambda config: gr.update(interactive=config.get("image_generation_enabled", False)),
                inputs=app_config_state, outputs=generate_image_button
            )

        # --- Onglet 3 : Profil Détaillé & Raffinement (Corrigé) ---
        with gr.Tab("📝 Étape 3 : Profil détaillé & raffinement", id=2):
            gr.Markdown("### 3. Complétez les détails du persona")
            gr.Markdown("Remplissez les champs suivants. Utilisez le bouton '💡 Affiner' pour obtenir des suggestions du système d'IA, en tenant compte de votre objectif et des biais identifiés.")

            # Zone pour afficher les suggestions d'affinement
            refinement_suggestion_display = gr.Markdown(value="*Aucune suggestion pour le moment.*", elem_classes="suggestion-box")

            with gr.Row():
                with gr.Column():
                    gr.Markdown("#### Infos socio-démographiques")
                    marital_status_input = gr.Dropdown(label="État civil", choices=["", "Célibataire", "En couple", "Marié(e)", "Divorcé(e)", "Veuf(ve)"])
                    education_level_input = gr.Dropdown(label="Niveau d'éducation", choices=["", "Secondaire", "Bac", "Licence", "Master", "Doctorat", "Autre"])
                    profession_input = gr.Textbox(label="Profession")
                    income_input = gr.Number(label="Revenus annuels (€)", minimum=0, step=1000)

                    gr.Markdown("#### Psychographie")
                    with gr.Row(equal_height=False):
                        personality_traits_input = gr.Textbox(label="Traits de personnalité", lines=2, scale=4)
                        refine_personality_traits_button = gr.Button("💡", scale=1, size='sm')
                    with gr.Row(equal_height=False):
                        values_beliefs_input = gr.Textbox(label="Valeurs et croyances", lines=2, scale=4)
                        refine_values_beliefs_button = gr.Button("💡", scale=1, size='sm')
                    with gr.Row(equal_height=False):
                        motivations_input = gr.Textbox(label="Motivations (objectifs, désirs)", lines=2, scale=4)
                        refine_motivations_button = gr.Button("💡", scale=1, size='sm')
                    with gr.Row(equal_height=False):
                        hobbies_interests_input = gr.Textbox(label="Loisirs et intérêts", lines=2, scale=4)
                        refine_hobbies_interests_button = gr.Button("💡", scale=1, size='sm')
                with gr.Column():
                    gr.Markdown("#### Relation au produit/service")
                    with gr.Row(equal_height=False):
                        technology_relationship_input = gr.Textbox(label="Relation avec la technologie", lines=2, scale=4, info="Ex: early adopter, prudent, pragmatique...")
                        refine_technology_relationship_button = gr.Button("💡", scale=1, size='sm')
                    with gr.Row(equal_height=False):
                        product_related_activities_input = gr.Textbox(label="Tâches/activités liées au produit/service", lines=2, scale=4)
                        refine_product_related_activities_button = gr.Button("💡", scale=1, size='sm')
                    with gr.Row(equal_height=False):
                        pain_points_input = gr.Textbox(label="Points de douleur (frustrations, problèmes)", lines=2, scale=4)
                        refine_pain_points_button = gr.Button("💡", scale=1, size='sm')
                    with gr.Row(equal_height=False):
                        product_goals_input = gr.Textbox(label="Objectifs avec le produit/service", lines=2, scale=4)
                        refine_product_goals_button = gr.Button("💡", scale=1, size='sm')
                    with gr.Row(equal_height=False):
                        usage_scenarios_input = gr.Textbox(label="Scénarios d'utilisation typiques", lines=2, scale=4)
                        refine_usage_scenarios_button = gr.Button("💡", scale=1, size='sm')

            with gr.Accordion("Autres informations (optionnel)", open=False):
                with gr.Row():
                    with gr.Column():
                        gr.Markdown("#### Contexte professionnel/vie quotidienne")
                        with gr.Row(equal_height=False):
                            main_responsibilities_input = gr.Textbox(label="Responsabilités principales", lines=2, scale=4)
                            refine_main_responsibilities_button = gr.Button("💡", scale=1, size='sm')
                        with gr.Row(equal_height=False):
                            daily_activities_input = gr.Textbox(label="Activités journalières", lines=2, scale=4)
                            refine_daily_activities_button = gr.Button("💡", scale=1, size='sm')
                        with gr.Row(equal_height=False):
                            daily_life_input = gr.Textbox(label="Journée type / Citation", lines=2, scale=4)
                            refine_daily_life_button = gr.Button("💡", scale=1, size='sm')
                    with gr.Column():
                        gr.Markdown("#### Marketing & considérations spéciales")
                        with gr.Row(equal_height=False):
                            brand_relationship_input = gr.Textbox(label="Relation avec la marque", lines=2, scale=4)
                            refine_brand_relationship_button = gr.Button("💡", scale=1, size='sm')
                        with gr.Row(equal_height=False):
                            market_segment_input = gr.Textbox(label="Segment de marché", lines=2, scale=4)
                            refine_market_segment_button = gr.Button("💡", scale=1, size='sm')
                        with gr.Row(equal_height=False):
                            commercial_objectives_input = gr.Textbox(label="Objectifs commerciaux liés", lines=2, scale=4)
                            refine_commercial_objectives_button = gr.Button("💡", scale=1, size='sm')
                        with gr.Row(equal_height=False):
                            visual_codes_input = gr.Textbox(label="Codes visuels / Marques préférées", lines=2, scale=4)
                            refine_visual_codes_button = gr.Button("💡", scale=1, size='sm')
                        with gr.Row(equal_height=False):
                            special_considerations_input = gr.Textbox(label="Considérations spéciales", lines=2, scale=4)
                            refine_special_considerations_button = gr.Button("💡", scale=1, size='sm')
                        with gr.Row(equal_height=False):
                            references_input = gr.Textbox(label="Références / Sources", lines=2, scale=4)
                            refine_references_button = gr.Button("💡", scale=1, size='sm')

            # Handler pour l'affichage des suggestions
            def display_refinement_suggestion(suggestion_state):
                """Met en forme et affiche la dernière suggestion."""
                if suggestion_state:
                    field_name, suggestion_text = suggestion_state
                    if "ERREUR:" not in suggestion_text:
                        return f"#### Suggestion pour '{field_name}' :\n\n{suggestion_text}"
                    else:
                        # Si c'est une erreur, elle est déjà dans le statut, on n'affiche rien ici
                        return "*Une erreur est survenue lors de la dernière tentative de raffinement (voir statut/log).*"
                return "*Cliquez sur '💡' à côté d'un champ pour obtenir une suggestion.*"

            # Fonction intermédiaire pour gérer l'appel et le stockage de la suggestion
            def handle_refinement_request(app_config, fname, lname, age_val, field_name_display, field_val, bias_state_dict, objectives, log_state):
                """Appelle l'API et retourne log, message statut, et détails suggestion."""
                updated_log, result_text, field_name_ctx = refine_persona_details( # Renommé
                    app_config, fname, lname, age_val, field_name_display, field_val, bias_state_dict, objectives, log_state
                )
                status_update_msg = ""
                suggestion_details = None # Sera (field_name, result_text) ou None

                if result_text:
                    if "ERREUR:" in result_text:
                        status_update_msg = result_text
                        gr.Warning(f"Erreur raffinement pour '{field_name_display}'. Voir statut/log.")
                        # Ne pas stocker l'erreur comme suggestion affichable
                    else:
                        # Stocker les détails pour affichage via l'état dédié
                        suggestion_details = (field_name_display, result_text)
                        # Pas besoin de statut global pour une suggestion réussie
                else:
                    gr.Warning(f"Pas de suggestion reçue pour '{field_name_display}'.")

                return updated_log, status_update_msg, suggestion_details

            # Lambda générique
            def create_refine_handler(field_name_display, input_component):
                return lambda app_conf, fname, lname, age_val, field_val, bias_state, objectives, log_state: \
                    handle_refinement_request(app_conf, fname, lname, age_val, field_name_display, field_val, bias_state, objectives, log_state)

            common_inputs_refine = [app_config_state, first_name_input, last_name_input, age_input]
            state_inputs_refine = [bias_analysis_result_state, objective_input, session_log_state]
            # Les sorties de handle_refinement_request
            refine_handler_outputs = [session_log_state, status_message_state, last_refinement_suggestion_state]

            refine_buttons_map = {
                refine_personality_traits_button: ("Traits de personnalité", personality_traits_input),
                refine_values_beliefs_button: ("Valeurs et croyances", values_beliefs_input),
                refine_motivations_button: ("Motivations", motivations_input),
                refine_hobbies_interests_button: ("Loisirs et intérêts", hobbies_interests_input),
                refine_technology_relationship_button: ("Relation avec la technologie", technology_relationship_input),
                refine_product_related_activities_button: ("Tâches liées au produit", product_related_activities_input),
                refine_pain_points_button: ("Points de douleur", pain_points_input),
                refine_product_goals_button: ("Objectifs produit", product_goals_input),
                refine_usage_scenarios_button: ("Scénarios d'utilisation", usage_scenarios_input),
                refine_main_responsibilities_button: ("Responsabilités principales", main_responsibilities_input),
                refine_daily_activities_button: ("Activités journalières", daily_activities_input),
                refine_daily_life_button: ("Journée type / Citation", daily_life_input),
                refine_brand_relationship_button: ("Relation marque", brand_relationship_input),
                refine_market_segment_button: ("Segment marché", market_segment_input),
                refine_commercial_objectives_button: ("Objectifs commerciaux", commercial_objectives_input),
                refine_visual_codes_button: ("Codes visuels", visual_codes_input),
                refine_special_considerations_button: ("Considérations spéciales", special_considerations_input),
                refine_references_button: ("Références", references_input),
            }

            for btn, (label, input_comp) in refine_buttons_map.items():
                btn.click(
                    fn=create_refine_handler(label, input_comp),
                    inputs=common_inputs_refine + [input_comp] + state_inputs_refine,
                    outputs=refine_handler_outputs # Met à jour log, statut, et état suggestion
                ).then( # Chaîne pour mettre à jour l'affichage du statut
                    fn=update_status_display,
                    inputs=[status_message_state, session_log_state],
                    outputs=[status_display, session_log_state]
                ).then( # Chaîne pour mettre à jour l'affichage de la suggestion
                    fn=display_refinement_suggestion,
                    inputs=[last_refinement_suggestion_state],
                    outputs=[refinement_suggestion_display]
                )

        # --- Onglet 4 : Résumé Persona (Corrigé) ---
        with gr.Tab("📄 Étape 4 : Résumé du persona", id=3):
            gr.Markdown("### 4. Visualisez le persona complet")
            summary_button = gr.Button("Générer le résumé du persona")
            summary_content = gr.Markdown(elem_classes="persona-summary", value="Cliquez sur 'Générer' pour voir le résumé.")

            # Inputs pour generate_summary (l'image vient en premier maintenant)
            all_persona_inputs_for_summary = [persona_image_pil_state] + [ # Image PIL state first
                first_name_input, last_name_input, age_input, gender_input, persona_description_en_input,
                skin_color_input, eye_color_input, hair_style_input, hair_color_input, facial_expression_input, posture_input, clothing_style_input, accessories_input,
                marital_status_input, education_level_input, profession_input, income_input,
                personality_traits_input, values_beliefs_input, motivations_input, hobbies_interests_input,
                main_responsibilities_input, daily_activities_input, technology_relationship_input,
                product_related_activities_input, pain_points_input, product_goals_input, usage_scenarios_input,
                brand_relationship_input, market_segment_input, commercial_objectives_input,
                visual_codes_input, special_considerations_input, daily_life_input, references_input,
                session_log_state # Log state last
            ]
            summary_button.click(
                fn=generate_summary, # Renommé
                inputs=all_persona_inputs_for_summary,
                outputs=[summary_content, session_log_state]
            )

        # --- Onglet 5 : Journal de Bord (Corrigé) ---
        with gr.Tab("📓 Journal de bord", id=4):
            gr.Markdown("### Suivi du processus de création")
            gr.Markdown("Ce journal enregistre les étapes clés, réflexions et erreurs de la session.")
            log_display_final = gr.Textbox(label="Historique de la session", lines=20, interactive=False, max_lines=MAX_LOG_LINES)
            download_log_button = gr.DownloadButton(label="Télécharger le journal", visible=False)
            export_log_button_final = gr.Button("Préparer l'export du journal")

            session_log_state.change(fn=lambda log_data: log_data, inputs=session_log_state, outputs=log_display_final)

            def prepare_log_for_download(log_data):
                """Prépare le fichier log temporaire pour le téléchargement."""
                if not log_data: return gr.update(visible=False)
                try:
                    with tempfile.NamedTemporaryFile(mode='w', delete=False, suffix='.txt', encoding='utf-8') as temp_file:
                        temp_file.write(log_data)
                        temp_filepath = temp_file.name
                    print(f"Fichier log prêt: {temp_filepath}")
                    return gr.update(value=temp_filepath, visible=True) # Met à jour DownloadButton
                except Exception as e:
                    print(f"Erreur création fichier log: {e}")
                    return gr.update(visible=False)

            export_log_button_final.click(prepare_log_for_download, session_log_state, download_log_button)

# --- Lancement de l'Application (Corrigé) ---
if not openrouter_api_key:
    print("\n" + "="*60 + "\nAVERTISSEMENT : Clé API OpenRouter non trouvée.\nLe fonctionnement dépendra d'une clé OpenAI valide.\n" + "="*60 + "\n")

# Configuration initiale si OpenRouter est disponible
initial_api_status = "Statut API : Non configuré."
if openrouter_api_key:
     print("Clé OpenRouter trouvée, tentative de configuration initiale...")
     try:
         initial_config, initial_api_status, initial_log = configure_api_clients(None, app_config_state.value, "")
         app_config_state.value = initial_config
         session_log_state.value = initial_log
         print(initial_api_status)
         api_status_display.value = initial_api_status # Met à jour la valeur initiale du composant Markdown
     except Exception as init_e:
         print(f"Erreur lors de la configuration initiale d'OpenRouter: {init_e}")
         initial_api_status = f"❌ Erreur configuration initiale OpenRouter: {init_e}"
         api_status_display.value = initial_api_status # Affiche l'erreur dans l'UI

# Lancement avec PWA activé
demo.queue().launch(debug=False, share=False, pwa=True)