File size: 28,388 Bytes
c253059
da7ef42
ccfefd3
984f26b
 
9c39fae
 
0f75c3f
10ad7a5
114b9ec
9c39fae
60b2cb1
c253059
984f26b
c23cd74
ccfefd3
0ab0c95
984f26b
c23cd74
da7ef42
0ab0c95
984f26b
 
ccfefd3
 
10ad7a5
0ab0c95
984f26b
 
 
10ad7a5
0ab0c95
984f26b
 
10ad7a5
984f26b
10ad7a5
ccfefd3
10ad7a5
ccfefd3
9c39fae
 
 
984f26b
 
 
 
9c39fae
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
984f26b
0f75c3f
984f26b
 
10ad7a5
ccfefd3
 
984f26b
 
71ffbd5
984f26b
9c39fae
 
0ab0c95
9c39fae
984f26b
9c39fae
 
 
 
 
 
 
 
 
 
 
 
 
984f26b
 
ccfefd3
9c39fae
 
ccfefd3
0ab0c95
c23cd74
0f75c3f
ccfefd3
984f26b
71ffbd5
 
ccfefd3
c23cd74
984f26b
 
 
 
c23cd74
984f26b
 
 
 
 
 
 
 
 
 
 
 
 
0ab0c95
 
 
984f26b
 
 
 
0ab0c95
984f26b
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
9c39fae
984f26b
 
 
 
 
 
 
 
 
 
 
9c39fae
984f26b
 
 
9c39fae
984f26b
 
 
 
 
 
 
c23cd74
984f26b
 
 
 
 
 
 
 
 
 
 
 
0ab0c95
da7ef42
984f26b
ccfefd3
 
 
10ad7a5
984f26b
 
 
 
 
10ad7a5
 
984f26b
 
 
0ab0c95
ccfefd3
984f26b
 
0ab0c95
984f26b
9c39fae
0ab0c95
10ad7a5
984f26b
10ad7a5
 
984f26b
10ad7a5
9c39fae
 
984f26b
9c39fae
 
 
 
 
10ad7a5
c23cd74
 
c96425b
ccfefd3
 
0f75c3f
9c39fae
 
 
 
 
 
 
 
0f75c3f
ccfefd3
 
984f26b
10ad7a5
60b2cb1
10ad7a5
984f26b
ccfefd3
 
 
 
984f26b
ccfefd3
c23cd74
dfc4deb
 
984f26b
 
 
0f75c3f
984f26b
10ad7a5
984f26b
10ad7a5
984f26b
 
 
 
10ad7a5
984f26b
 
 
ccfefd3
 
984f26b
 
 
 
dfc4deb
984f26b
ccfefd3
 
dfc4deb
984f26b
 
 
 
 
 
10ad7a5
984f26b
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
9c39fae
984f26b
 
 
9c39fae
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
984f26b
 
 
 
 
 
 
 
 
 
 
 
 
 
9c39fae
 
984f26b
 
 
 
 
 
 
 
 
 
10ad7a5
984f26b
 
 
9c39fae
984f26b
 
 
 
 
 
 
9c39fae
 
984f26b
 
9c39fae
984f26b
 
 
 
 
 
 
 
 
 
 
 
 
 
 
0ab0c95
 
984f26b
0ab0c95
 
 
 
ccfefd3
0ab0c95
984f26b
 
 
ccfefd3
984f26b
9c39fae
 
dfc4deb
984f26b
 
 
 
 
9c39fae
ccfefd3
60b2cb1
984f26b
9c39fae
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
0f75c3f
 
10ad7a5
984f26b
 
 
0f75c3f
 
9c39fae
 
 
 
 
 
 
 
 
984f26b
 
 
 
0f75c3f
984f26b
 
 
 
ccfefd3
984f26b
ccfefd3
 
9c39fae
 
ccfefd3
 
10ad7a5
c253059
984f26b
ccfefd3
dfc4deb
984f26b
9c39fae
984f26b
 
9c39fae
 
 
 
0f75c3f
9c39fae
 
 
 
 
 
0f75c3f
984f26b
 
 
9c39fae
 
984f26b
9c39fae
 
 
 
 
ccfefd3
984f26b
ccfefd3
 
 
 
984f26b
ccfefd3
984f26b
10ad7a5
 
c253059
ccfefd3
984f26b
ccfefd3
 
984f26b
 
ccfefd3
 
 
 
 
9c39fae
ccfefd3
984f26b
0ab0c95
c253059
ccfefd3
9c39fae
 
 
 
 
 
0f75c3f
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
import os
import json
import mimetypes
import time
import re # Pour la détection d'URL YouTube
import traceback # Ajout pour afficher les tracebacks complets

from flask import Flask, request, session, jsonify, redirect, url_for, flash, render_template
from dotenv import load_dotenv
from google import genai
from google.genai import types # Important pour Part, FileData, etc.
import requests
from werkzeug.utils import secure_filename
import markdown # Pour convertir la réponse Markdown en HTML

# --- Configuration Initiale ---

load_dotenv() # Charge les variables depuis .env

app = Flask(__name__)

# Clé secrète FORTEMENT recommandée pour la sécurité des sessions
app.config['SECRET_KEY'] = os.getenv('FLASK_SECRET_KEY', 'une-cle-secrete-tres-difficile-a-deviner')

# Configuration pour les uploads
UPLOAD_FOLDER = 'temp'

# Extensions autorisées (incluant vidéo)
ALLOWED_EXTENSIONS = {'txt', 'pdf', 'png', 'jpg', 'jpeg', 'mp4', 'mov', 'avi', 'mkv', 'webm'}
VIDEO_EXTENSIONS = {'mp4', 'mov', 'avi', 'mkv', 'webm'} # Pour identifier les vidéos
app.config['UPLOAD_FOLDER'] = UPLOAD_FOLDER

# Augmenter la limite pour les vidéos (ex: 100MB) - Ajustez si nécessaire
app.config['MAX_CONTENT_LENGTH'] = 100 * 1024 * 1024

# Crée le dossier temporaire s'il n'existe pas
os.makedirs(UPLOAD_FOLDER, exist_ok=True)
print(f"Dossier d'upload configuré : {os.path.abspath(UPLOAD_FOLDER)}")

# --- Configuration de l'API Gemini ---
# Utilisez les noms de modèles spécifiés
MODEL_FLASH = 'gemini-2.0-flash' # Mis à jour
MODEL_PRO = 'gemini-2.5-pro-exp-03-25' # Mis à jour - Pro est souvent nécessaire/meilleur pour la vidéo

# Instruction système pour le modèle
SYSTEM_INSTRUCTION = "Tu es un assistant intelligent et amical nommé Mariam. Tu assistes les utilisateurs au mieux de tes capacités, y compris dans l'analyse de texte, d'images et de vidéos (via upload ou lien YouTube). Tu as été créé par Aenir."

# Paramètres de sécurité (ajuster si nécessaire)
# Utilisation de la structure attendue par GenerateContentConfig
SAFETY_SETTINGS_CONFIG = [
    types.SafetySetting(
      category=types.HarmCategory.HARM_CATEGORY_HATE_SPEECH,
      threshold=types.HarmBlockThreshold.BLOCK_LOW_AND_ABOVE,
    ),
    types.SafetySetting(
      category=types.HarmCategory.HARM_CATEGORY_HARASSMENT,
      threshold=types.HarmBlockThreshold.BLOCK_LOW_AND_ABOVE,
    ),
    types.SafetySetting(
      category=types.HarmCategory.HARM_CATEGORY_SEXUALLY_EXPLICIT,
      threshold=types.HarmBlockThreshold.BLOCK_LOW_AND_ABOVE,
    ),
    types.SafetySetting(
      category=types.HarmCategory.HARM_CATEGORY_DANGEROUS_CONTENT,
      threshold=types.HarmBlockThreshold.BLOCK_LOW_AND_ABOVE,
    )
]


GEMINI_CONFIGURED = False
gemini_client = None # Client API pour les opérations sur les fichiers (upload vidéo)

try:
    gemini_api_key = os.getenv("GOOGLE_API_KEY")
    if not gemini_api_key:
        raise ValueError("Clé API GOOGLE_API_KEY manquante dans le fichier .env")

    # Initialise le client pour les opérations sur les fichiers ET pour lister les modèles
    gemini_client = genai.Client(api_key=gemini_api_key)
    # Configure également l'espace de noms global pour GenerativeModel, etc. (Peut être redondant si client est utilisé)
    # genai.configure(api_key=gemini_api_key)

    # Vérifie si les modèles requis sont disponibles en utilisant le client (Correction: client.models.list())
    print("Vérification des modèles Gemini disponibles...")
    # Note: l'API liste les modèles sans le préfixe 'models/', on l'ajoute pour la comparaison
    available_models_full_names = [m.name for m in gemini_client.models.list()]
    required_models_prefixes = [MODEL_FLASH, MODEL_PRO] # Noms courts
    # Vérifie si les modèles requis (commençant par les noms courts) existent dans la liste complète
    models_found = {req: False for req in required_models_prefixes}
    for available in available_models_full_names:
        for req in required_models_prefixes:
            # Vérifie si le nom disponible commence par 'models/' suivi du nom requis
            if available.startswith(f'models/{req}'):
                models_found[req] = True

    if all(models_found.values()):
         print(f"Configuration Gemini effectuée. Modèles requis ({', '.join(required_models_prefixes)}) trouvés.")
         print(f"Instruction Système: {SYSTEM_INSTRUCTION}")
         GEMINI_CONFIGURED = True
    else:
        missing = [req for req, found in models_found.items() if not found]
        raise ValueError(f"Les modèles Gemini requis suivants (ou commençant par) sont manquants : {missing}")


except Exception as e:
    print(f"ERREUR Critique lors de la configuration initiale de Gemini : {e}")
    print("L'application fonctionnera sans les fonctionnalités IA.")
    gemini_client = None # S'assure que le client est None si la config échoue
    GEMINI_CONFIGURED = False # S'assurer qu'il est False en cas d'erreur

# --- Fonctions Utilitaires ---

def get_file_extension(filename):
    """Retourne l'extension du fichier en minuscules, ou None."""
    return filename.rsplit('.', 1)[1].lower() if '.' in filename else None

def allowed_file(filename):
    """Vérifie si l'extension du fichier est dans la liste autorisée."""
    return get_file_extension(filename) in ALLOWED_EXTENSIONS

def is_video_file(filename):
    """Vérifie si l'extension correspond à un type vidéo connu."""
    return get_file_extension(filename) in VIDEO_EXTENSIONS

def is_youtube_url(url):
    """Vérifie si la chaîne ressemble à une URL YouTube valide."""
    if not url: # Gère les cas où l'URL est None ou vide
        return False
    # Regex simple pour les formats courants d'URL YouTube
    youtube_regex = re.compile(
        r'(https?://)?(www.)?' # Protocole et www optionnels
        r'(youtube|youtu|youtube-nocookie).(com|be)/' # Domaines youtube.com, youtu.be, etc.
        r'(watch?v=|embed/|v/|.+?v=)?' # Différents chemins possibles
        r'([^&=%\?]{11})') # L'ID vidéo de 11 caractères
    return youtube_regex.match(url) is not None

# --- Fonction d'Upload Vidéo avec Polling ---

def upload_video_with_polling(filepath, mime_type, max_wait_seconds=300, poll_interval=10):
    """
    Upload une vidéo via client.files.upload et attend son traitement.
    Retourne l'objet File traité ou lève une exception.
    """
    if not gemini_client:
        raise ConnectionError("Le client Gemini n'est pas initialisé.")

    print(f"Début de l'upload vidéo via client.files: {filepath} ({mime_type})")
    video_file = None # Initialise la variable pour le bloc finally
    try:
        # Lance l'upload
        video_file = gemini_client.files.upload(path=filepath, mime_type=mime_type)
        print(f"Upload initialisé. Nom du fichier distant: {video_file.name}. Attente du traitement...")

        start_time = time.time()
        # Boucle de polling tant que l'état est "PROCESSING"
        while video_file.state == types.FileState.PROCESSING: # Utilise types.FileState
            elapsed_time = time.time() - start_time
            # Vérifie le timeout
            if elapsed_time > max_wait_seconds:
                raise TimeoutError(f"Le traitement de la vidéo a dépassé le délai de {max_wait_seconds} secondes.")

            print(f"Vidéo en cours de traitement... (État: {video_file.state.name}, {int(elapsed_time)}s écoulées)")
            time.sleep(poll_interval)
            # Récupère l'état mis à jour du fichier
            video_file = gemini_client.files.get(name=video_file.name)

        # Vérifie l'état final après la boucle
        if video_file.state == types.FileState.FAILED: # Utilise types.FileState
            print(f"ERREUR: Le traitement de la vidéo a échoué. État: {video_file.state.name}")
            raise ValueError("Le traitement de la vidéo a échoué côté serveur.")

        if video_file.state == types.FileState.ACTIVE: # Utilise types.FileState
            print(f"Traitement vidéo terminé avec succès: {video_file.uri}")
            return video_file # Retourne l'objet fichier SDK réussi

        else:
            # Gère d'autres états inattendus si nécessaire
            print(f"AVERTISSEMENT: État inattendu du fichier vidéo après traitement: {video_file.state.name}")
            raise RuntimeError(f"État inattendu du fichier vidéo: {video_file.state.name}")

    except Exception as e:
        print(f"Erreur lors de l'upload/traitement vidéo via client.files: {e}")
        # Tente de supprimer le fichier distant en cas d'erreur pendant le polling/upload
        if video_file and hasattr(video_file, 'name'):
            try:
                gemini_client.files.delete(name=video_file.name)
                print(f"Tentative de nettoyage du fichier distant {video_file.name} après erreur.")
            except Exception as delete_err:
                 print(f"Échec du nettoyage du fichier distant {video_file.name} après erreur: {delete_err}")
        raise # Relance l'exception originale pour qu'elle soit gérée par l'appelant

# --- Fonctions de Recherche Web (inchangées - implémentez si nécessaire) ---

def perform_web_search(query):
    """Effectue une recherche web via l'API Serper (Exemple)."""
    serper_api_key = os.getenv("SERPER_API_KEY")
    if not serper_api_key:
        print("AVERTISSEMENT: Clé API SERPER_API_KEY manquante. Recherche web désactivée.")
        return None
    # ... (votre implémentation de la recherche Serper) ...
    print(f"Recherche Web (simulation) pour : {query}")
    # Simuler des résultats pour le test
    # return {"organic": [{"title": "Résultat Web 1", "link": "#", "snippet": "Description du résultat 1..."}]}
    return None # Désactivé par défaut

def format_search_results(data):
    """Met en forme les résultats de recherche (Exemple)."""
    if not data: return "Aucun résultat de recherche web pertinent."
    # ... (votre implémentation du formatage) ...
    results = ["Résultats Web:"]
    if data.get('organic'):
        for item in data['organic'][:3]:
            results.append(f"- {item.get('title', '')}: {item.get('snippet', '')}")
        return "\n".join(results)

# --- Préparation Historique (Corrigé pour utiliser types.Part) ---

def prepare_gemini_history(chat_history):
    """Convertit l'historique de session pour l'API Gemini (texte seulement)."""
    gemini_history = []
    for message in chat_history:
        # Ne transmet que le texte brut des messages précédents
        role = 'user' if message['role'] == 'user' else 'model'
        raw_text_content = message.get('raw_text', '') # Utilise raw_text stocké

        # Ne pas inclure les fichiers/médias des tours précédents pour simplifier
        if raw_text_content: # N'ajoute que s'il y a du texte
            # Correction: Créer un objet Part pour le texte
            text_part_object = types.Part(text=raw_text_content)
            # Ajouter le dictionnaire avec le rôle et la liste contenant l'objet Part
            gemini_history.append({'role': role, 'parts': [text_part_object]})
    return gemini_history

# --- Routes Flask ---

@app.route('/')
def root():
    """Sert la page HTML principale."""
    # Assurez-vous d'avoir un fichier templates/index.html
    try:
        return render_template('index.html')
    except Exception as e:
        # Retourne une erreur simple si le template n'est pas trouvé
        print(f"Erreur lors du rendu du template index.html: {e}")
        return "Erreur: Impossible de charger la page principale. Vérifiez que 'templates/index.html' existe.", 500


@app.route('/api/history', methods=['GET'])
def get_history():
    """Fournit l'historique de chat (formaté pour affichage) en JSON."""
    if 'chat_history' not in session:
        session['chat_history'] = []

    # Prépare l'historique pour l'affichage (contient le HTML pour l'assistant)
    display_history = [
        {'role': msg.get('role', 'unknown'), 'text': msg.get('text', '')}
        for msg in session.get('chat_history', [])
    ]
    # print(f"API: Récupération historique ({len(display_history)} messages)") # Debug
    return jsonify({'success': True, 'history': display_history})

@app.route('/api/chat', methods=['POST'])
def chat_api():
    """Gère les requêtes de chat (texte, fichier/vidéo uploadé, URL YouTube)."""
    # Vérifie si Gemini est configuré correctement
    if not GEMINI_CONFIGURED or not gemini_client:
        print("API ERREUR: Tentative d'appel à /api/chat sans configuration Gemini valide.")
        return jsonify({'success': False, 'error': "Le service IA n'est pas configuré correctement."}), 503

    # --- Récupération des données du formulaire ---
    prompt = request.form.get('prompt', '').strip()
    youtube_url = request.form.get('youtube_url', '').strip() # Récupère le champ YouTube dédié
    use_web_search = request.form.get('web_search', 'false').lower() == 'true'
    use_advanced = request.form.get('advanced_reasoning', 'false').lower() == 'true'
    file = request.files.get('file') # Récupère le fichier uploadé

    # --- Validation de l'entrée (au moins un type d'input requis) ---
    if not file and not youtube_url and not prompt:
        return jsonify({'success': False, 'error': 'Veuillez fournir un message, un fichier/vidéo ou un lien YouTube.'}), 400

    print(f"\n--- Nouvelle requête /api/chat ---")
    print(f"  Prompt: '{prompt[:50]}...'")
    print(f"  Fichier: {file.filename if file else 'Non'}")
    print(f"  URL YouTube: {youtube_url if youtube_url else 'Non'}")
    print(f"  Web Search: {use_web_search}, Advanced: {use_advanced}")

    # Initialise l'historique de session si nécessaire
    if 'chat_history' not in session:
        session['chat_history'] = []

    # --- Variables pour le traitement ---
    uploaded_media_part = None           # Part(file_data=...) pour Gemini
    uploaded_filename_for_display = None # Nom à afficher dans le chat user
    filepath_to_delete = None            # Chemin du fichier temporaire à supprimer
    is_media_request = False             # True si fichier ou URL YT est l'input principal
    media_type = None                    # 'file', 'video', 'youtube', ou 'text'

    # --- Traitement de l'entrée (Priorité: Fichier > YouTube > Texte) ---
    try:
        # 1. Traiter le fichier uploadé s'il existe
        if file and file.filename != '':
            is_media_request = True
            media_type = 'file' # Par défaut, pourrait devenir 'video'
            uploaded_filename_for_display = secure_filename(file.filename)

            if not allowed_file(uploaded_filename_for_display):
                raise ValueError(f"Type de fichier non autorisé: {uploaded_filename_for_display}")

            # Sauvegarde temporaire du fichier
            filepath = os.path.join(app.config['UPLOAD_FOLDER'], uploaded_filename_for_display)
            file.save(filepath)
            filepath_to_delete = filepath # Marque pour suppression future
            print(f"  Fichier '{uploaded_filename_for_display}' sauvegardé -> '{filepath}'")
            mime_type = mimetypes.guess_type(filepath)[0] or 'application/octet-stream'

            # Utilise le polling pour les vidéos, upload direct pour les autres
            if is_video_file(uploaded_filename_for_display):
                media_type = 'video'
                print("  Traitement VIDÉO Uploadée (avec polling)...")
                # Appel bloquant qui attend le traitement
                processed_media_file = upload_video_with_polling(filepath, mime_type)
                # Crée le Part Gemini à partir de l'objet File retourné
                uploaded_media_part = types.Part(file_data=processed_media_file) # Utilise types.Part
            else:
                print("  Traitement FICHIER standard...")
                # Utilise l'upload global plus simple pour les non-vidéos
                # Note: genai.upload_file n'existe pas directement, utiliser client.files.upload
                # S'il s'agit d'une image ou autre fichier non-vidéo, l'upload avec polling peut
                # retourner rapidement si le traitement est rapide, ou on peut simplifier.
                # Utilisons le client ici aussi pour la cohérence.
                print(f"  Upload via client.files pour fichier non-vidéo: {filepath}")
                processed_media_file = gemini_client.files.upload(path=filepath, mime_type=mime_type)
                # Pas besoin de polling complexe ici en général, on suppose que c'est rapide.
                # On peut ajouter un petit wait ou une vérification simple si nécessaire.
                # Attente très courte pour s'assurer que l'état passe à ACTIVE (simplifié)
                time.sleep(2)
                processed_media_file = gemini_client.files.get(name=processed_media_file.name)
                if processed_media_file.state != types.FileState.ACTIVE:
                     print(f"AVERTISSEMENT: Fichier non-vidéo '{processed_media_file.name}' n'est pas ACTIF après upload ({processed_media_file.state.name}). Tentative de continuer.")
                     # On pourrait lever une erreur ici si l'état ACTIVE est crucial
                     # raise RuntimeError(f"Échec de l'activation du fichier {processed_media_file.name}")

                uploaded_media_part = types.Part(file_data=processed_media_file) # Utilise types.Part
            print(f"  Part Média ({media_type}) créé: {processed_media_file.uri}")

        # 2. Sinon, traiter l'URL YouTube si fournie et valide
        elif youtube_url:
             if not is_youtube_url(youtube_url):
                 print(f"  AVERTISSEMENT: '{youtube_url}' n'est pas un lien YouTube valide, sera ignoré ou traité comme texte si prompt vide.")
                 media_type = 'text' # Considéré comme texte simple si invalide
             else:
                is_media_request = True
                media_type = 'youtube'
                print("  Traitement LIEN YouTube...")
                uploaded_filename_for_display = youtube_url # Affiche l'URL pour l'utilisateur
                youtube_uri = youtube_url # Utilise l'URL validée comme URI
                # Crée un Part FileData directement à partir de l'URI
                uploaded_media_part = types.Part( # Utilise types.Part
                    file_data=types.FileData(file_uri=youtube_uri, mime_type="video/mp4") # Utilise types.FileData
                )
                print(f"  Part YouTube créé pour: {youtube_uri}")
                if not prompt:
                    prompt = "Décris ou analyse le contenu de cette vidéo YouTube."
                    print(f"  Prompt par défaut ajouté pour YouTube: '{prompt}'")

        # 3. Si ni fichier ni URL YT valide, c'est une requête texte
        elif prompt:
            media_type = 'text'
            print("  Traitement PROMPT texte seul.")
        else:
            raise ValueError("Aucune entrée valide (fichier, URL YouTube ou texte) fournie.")

        # --- Préparer et stocker le message utilisateur dans l'historique ---
        display_user_text = prompt
        if media_type == 'file' or media_type == 'video':
            display_user_text = f"[{uploaded_filename_for_display}]" + (f" {prompt}" if prompt else "")
        elif media_type == 'youtube':
             display_user_text = f"[YouTube]" + (f" {prompt}" if prompt else "") + f"\n{uploaded_filename_for_display}"

        user_history_entry = {
            'role': 'user',
            'text': display_user_text,
            'raw_text': prompt
        }
        session['chat_history'].append(user_history_entry)
        session.modified = True

        # --- Préparer les 'parts' pour l'appel API Gemini ---
        current_gemini_parts = []
        if uploaded_media_part:
            current_gemini_parts.append(uploaded_media_part)

        final_prompt_for_gemini = prompt

        if use_web_search and prompt and media_type == 'text':
            print("  Activation Recherche Web...")
            search_data = perform_web_search(prompt)
            if search_data:
                formatted_results = format_search_results(search_data)
                final_prompt_for_gemini = f"""Basé sur la question suivante et les informations web ci-dessous, fournis une réponse complète.

    Question Originale:
    "{prompt}"

    Informations Web Pertinentes:
    --- DEBUT RESULTATS WEB ---
    {formatted_results}
    --- FIN RESULTATS WEB ---

    Réponse:"""
                print("  Prompt enrichi avec les résultats web.")
            else:
                print("  Aucun résultat de recherche web trouvé ou pertinent.")

        if final_prompt_for_gemini:
             # Correction: Toujours créer un objet Part pour le texte
             current_gemini_parts.append(types.Part(text=final_prompt_for_gemini)) # Utilise types.Part

        if not current_gemini_parts:
             print("ERREUR: Aucune partie (média ou texte) à envoyer à Gemini.")
             raise ValueError("Impossible de traiter la requête : contenu vide.")

        # --- Appel à l'API Gemini ---
        gemini_history = prepare_gemini_history(session['chat_history'][:-1])
        contents_for_gemini = gemini_history + [{'role': 'user', 'parts': current_gemini_parts}]

        # Sélectionne le modèle : Pro pour média ou si avancé demandé, sinon Flash
        # Préfixe 'models/' nécessaire pour l'API generate_content
        selected_model = f'models/{MODEL_PRO}' if is_media_request or use_advanced else f'models/{MODEL_FLASH}'
        print(f"  Modèle sélectionné pour l'API: {selected_model}")

        # Crée l'instance de configuration
        generation_config = types.GenerationConfig(
            # candidate_count=1, # Optionnel: demander une seule réponse
            # stop_sequences=["..."], # Optionnel
            # max_output_tokens=..., # Optionnel
            # temperature=..., # Optionnel
            # top_p=..., # Optionnel
            # top_k=..., # Optionnel
        )

        # Appel API (Correction: utilise 'model', non 'model_name')
        # Utilisation de la méthode generate_content sur le client
        print(f"  Envoi de la requête à {selected_model} ({len(contents_for_gemini)} messages/tours)...")
        response = gemini_client.generate_content(
            model=selected_model, # Correction: utilise 'model'
            contents=contents_for_gemini,
            generation_config=generation_config, # Passe l'objet config
            safety_settings=SAFETY_SETTINGS_CONFIG, # Passe les safety settings
            system_instruction=types.Content(parts=[types.Part(text=SYSTEM_INSTRUCTION)], role="system") # Instruction système formatée
        )


        # --- Traitement de la Réponse ---
        response_text_raw = ""
        response_html = ""
        try:
             response_text_raw = response.text
        except ValueError as ve: # Typiquement levé si la réponse est bloquée
            print(f"  ERREUR: La réponse de Gemini a été bloquée (ValueError): {ve}")
            try:
                print(f"  Détails du blocage (Prompt Feedback): {response.prompt_feedback}")
                block_reason = response.prompt_feedback.block_reason_message or "Raison non spécifiée"
                response_text_raw = f"Désolé, ma réponse a été bloquée car elle pourrait enfreindre les règles de sécurité ({block_reason})."
            except Exception as feedback_err:
                print(f"  Impossible de récupérer les détails du blocage: {feedback_err}")
                response_text_raw = "Désolé, ma réponse a été bloquée car elle pourrait enfreindre les règles de sécurité."
        except Exception as resp_err: # Gère d'autres erreurs potentielles
             print(f"  ERREUR inattendue lors de l'accès à response.text : {resp_err}")
             print(f"  Réponse brute complète : {response}") # Log la réponse brute pour le debug
             response_text_raw = "Désolé, une erreur interne s'est produite lors de la réception de la réponse."

        # Convertit la réponse (même les messages d'erreur) en HTML
        print(f"  Réponse reçue (début): '{response_text_raw[:100]}...'")
        response_html = markdown.markdown(response_text_raw, extensions=['fenced_code', 'tables', 'nl2br'])
        print("  Réponse convertie en HTML.")

        # --- Stocker la réponse de l'assistant et retourner au client ---
        assistant_history_entry = {
            'role': 'assistant',
            'text': response_html,
            'raw_text': response_text_raw
        }
        session['chat_history'].append(assistant_history_entry)
        session.modified = True

        print("  Envoi de la réponse HTML au client.")
        return jsonify({'success': True, 'message': response_html})

    # --- Gestion des Erreurs spécifiques (Timeout, Fichier invalide, etc.) ---
    except (TimeoutError, ValueError, ConnectionError, FileNotFoundError, types.StopCandidateException) as e:
        error_message = f"Erreur lors du traitement de la requête: {e}"
        print(f"ERREUR (Traitement/Appel API): {error_message}")
        if isinstance(e, types.StopCandidateException):
            error_message = "La génération a été stoppée, probablement à cause du contenu."
            print(f"  StopCandidateException: {e}")

        if session.get('chat_history'):
            # Retire le dernier message utilisateur SEULEMENT s'il a été ajouté dans ce try
            if session['chat_history'][-1]['role'] == 'user':
                 session['chat_history'].pop()
                 session.modified = True
                 print("  Dernier message utilisateur retiré de l'historique après erreur.")
        return jsonify({'success': False, 'error': error_message}), 500

    # --- Gestion des Erreurs Génériques/Inattendues ---
    except Exception as e:
        error_message = f"Une erreur interne inattendue est survenue: {e}"
        print(f"ERREUR CRITIQUE INATTENDUE: {error_message}")
        traceback.print_exc() # Correction: Utilise traceback pour afficher les détails
        if session.get('chat_history'):
             if session['chat_history'][-1]['role'] == 'user':
                 session['chat_history'].pop()
                 session.modified = True
                 print("  Dernier message utilisateur retiré de l'historique après erreur inattendue.")
        return jsonify({'success': False, 'error': "Une erreur interne inattendue est survenue."}), 500 # Message générique au client

    # --- Nettoyage (Exécuté dans tous les cas : succès ou erreur) ---
    finally:
        if filepath_to_delete and os.path.exists(filepath_to_delete):
            try:
                os.remove(filepath_to_delete)
                print(f"  Fichier temporaire '{filepath_to_delete}' supprimé avec succès.")
            except OSError as e:
                print(f"  ERREUR lors de la suppression du fichier temporaire '{filepath_to_delete}': {e}")

@app.route('/clear', methods=['POST'])
def clear_chat():
    """Efface l'historique de chat dans la session."""
    session.pop('chat_history', None) # Supprime la clé de la session
    print("API: Historique de chat effacé via /clear.")

    is_ajax = request.headers.get('X-Requested-With') == 'XMLHttpRequest' or \
              'application/json' in request.headers.get('Accept', '')

    if is_ajax:
         return jsonify({'success': True, 'message': 'Historique effacé.'})
    else:
        flash("Conversation effacée.", "info")
        return redirect(url_for('root'))

# --- Démarrage de l'application Flask ---

if __name__ == '__main__':
    print("Démarrage du serveur Flask...")
    # Utiliser un port différent si 5000/7860 est déjà pris (ex: 5001)
    # Le port 7860 est souvent utilisé par Gradio/Streamlit, vérifiez la disponibilité
    port = int(os.environ.get('PORT', 7860)) # Garde 7860 comme vu dans vos logs
    # debug=False en production ! debug=True pour développement seulement.
    # ATTENTION: Les logs indiquaient debug=off, mais app.run(debug=True) force le mode debug.
    # Mettez debug=False si vous ne voulez pas le rechargement auto et les tracebacks dans le navigateur.
    app.run(debug=True, host='0.0.0.0', port=port)