KJ24 commited on
Commit
2c6bd00
·
verified ·
1 Parent(s): 97d2e91

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +15 -2
app.py CHANGED
@@ -52,9 +52,13 @@ async def chunk_text(data: ChunkRequest):
52
  try:
53
  # ✅ Vérification du texte reçu
54
  print(f"✅ Texte reçu ({len(data.text)} caractères) : {data.text[:200]}...")
 
 
55
 
56
  # ✅ Chargement du modèle LLM depuis Hugging Face en ligne (pas de .gguf local)
57
  llm = LlamaCPP(
 
 
58
  model_url="https://huggingface.co/leafspark/Mistral-7B-Instruct-v0.2-Q4_K_M-GGUF/resolve/main/mistral-7b-instruct-v0.2.Q4_K_M.gguf",
59
  temperature=0.1,
60
  max_new_tokens=512,
@@ -68,8 +72,13 @@ async def chunk_text(data: ChunkRequest):
68
  def get_text_embedding(self, text: str):
69
  return get_embedding(text)
70
 
71
- Settings.llm = llm
72
- Settings.embed_model = SimpleEmbedding()
 
 
 
 
 
73
 
74
 
75
  import sys
@@ -87,8 +96,12 @@ async def chunk_text(data: ChunkRequest):
87
  nodes = parser.get_nodes_from_documents([doc])
88
  print(f"✅ Nombre de chunks générés : {len(nodes)}")
89
  print(f"🧩 Exemple chunk : {nodes[0].text[:100]}...")
 
90
  except Exception as e:
 
 
91
  print(f"❌ Erreur lors du split sémantique : {e}")
 
92
  nodes = fallback_splitter.get_nodes_from_documents([doc])
93
  print(f"⚠️ Split fallback utilisé - chunks générés : {len(nodes)}")
94
 
 
52
  try:
53
  # ✅ Vérification du texte reçu
54
  print(f"✅ Texte reçu ({len(data.text)} caractères) : {data.text[:200]}...")
55
+ print("✅ ✔️ Reçu – On passe à la configuration du modèle LLM...")
56
+
57
 
58
  # ✅ Chargement du modèle LLM depuis Hugging Face en ligne (pas de .gguf local)
59
  llm = LlamaCPP(
60
+ print("✅ ✔️ Modèle LLM chargé sans erreur – on continue...")
61
+
62
  model_url="https://huggingface.co/leafspark/Mistral-7B-Instruct-v0.2-Q4_K_M-GGUF/resolve/main/mistral-7b-instruct-v0.2.Q4_K_M.gguf",
63
  temperature=0.1,
64
  max_new_tokens=512,
 
72
  def get_text_embedding(self, text: str):
73
  return get_embedding(text)
74
 
75
+ try:
76
+ Settings.llm = llm
77
+ Settings.embed_model = SimpleEmbedding()
78
+ print("✅ ✔️ Settings configurés avec LLM et embedding")
79
+ except Exception as e:
80
+ print(f"❌ Erreur dans la configuration des Settings : {e}")
81
+ return {"error": str(e)}
82
 
83
 
84
  import sys
 
96
  nodes = parser.get_nodes_from_documents([doc])
97
  print(f"✅ Nombre de chunks générés : {len(nodes)}")
98
  print(f"🧩 Exemple chunk : {nodes[0].text[:100]}...")
99
+
100
  except Exception as e:
101
+ import traceback
102
+ traceback.print_exc()
103
  print(f"❌ Erreur lors du split sémantique : {e}")
104
+
105
  nodes = fallback_splitter.get_nodes_from_documents([doc])
106
  print(f"⚠️ Split fallback utilisé - chunks générés : {len(nodes)}")
107