Spaces:
Runtime error
Runtime error
Update app.py
Browse files
app.py
CHANGED
@@ -52,9 +52,13 @@ async def chunk_text(data: ChunkRequest):
|
|
52 |
try:
|
53 |
# ✅ Vérification du texte reçu
|
54 |
print(f"✅ Texte reçu ({len(data.text)} caractères) : {data.text[:200]}...")
|
|
|
|
|
55 |
|
56 |
# ✅ Chargement du modèle LLM depuis Hugging Face en ligne (pas de .gguf local)
|
57 |
llm = LlamaCPP(
|
|
|
|
|
58 |
model_url="https://huggingface.co/leafspark/Mistral-7B-Instruct-v0.2-Q4_K_M-GGUF/resolve/main/mistral-7b-instruct-v0.2.Q4_K_M.gguf",
|
59 |
temperature=0.1,
|
60 |
max_new_tokens=512,
|
@@ -68,8 +72,13 @@ async def chunk_text(data: ChunkRequest):
|
|
68 |
def get_text_embedding(self, text: str):
|
69 |
return get_embedding(text)
|
70 |
|
71 |
-
|
72 |
-
|
|
|
|
|
|
|
|
|
|
|
73 |
|
74 |
|
75 |
import sys
|
@@ -87,8 +96,12 @@ async def chunk_text(data: ChunkRequest):
|
|
87 |
nodes = parser.get_nodes_from_documents([doc])
|
88 |
print(f"✅ Nombre de chunks générés : {len(nodes)}")
|
89 |
print(f"🧩 Exemple chunk : {nodes[0].text[:100]}...")
|
|
|
90 |
except Exception as e:
|
|
|
|
|
91 |
print(f"❌ Erreur lors du split sémantique : {e}")
|
|
|
92 |
nodes = fallback_splitter.get_nodes_from_documents([doc])
|
93 |
print(f"⚠️ Split fallback utilisé - chunks générés : {len(nodes)}")
|
94 |
|
|
|
52 |
try:
|
53 |
# ✅ Vérification du texte reçu
|
54 |
print(f"✅ Texte reçu ({len(data.text)} caractères) : {data.text[:200]}...")
|
55 |
+
print("✅ ✔️ Reçu – On passe à la configuration du modèle LLM...")
|
56 |
+
|
57 |
|
58 |
# ✅ Chargement du modèle LLM depuis Hugging Face en ligne (pas de .gguf local)
|
59 |
llm = LlamaCPP(
|
60 |
+
print("✅ ✔️ Modèle LLM chargé sans erreur – on continue...")
|
61 |
+
|
62 |
model_url="https://huggingface.co/leafspark/Mistral-7B-Instruct-v0.2-Q4_K_M-GGUF/resolve/main/mistral-7b-instruct-v0.2.Q4_K_M.gguf",
|
63 |
temperature=0.1,
|
64 |
max_new_tokens=512,
|
|
|
72 |
def get_text_embedding(self, text: str):
|
73 |
return get_embedding(text)
|
74 |
|
75 |
+
try:
|
76 |
+
Settings.llm = llm
|
77 |
+
Settings.embed_model = SimpleEmbedding()
|
78 |
+
print("✅ ✔️ Settings configurés avec LLM et embedding")
|
79 |
+
except Exception as e:
|
80 |
+
print(f"❌ Erreur dans la configuration des Settings : {e}")
|
81 |
+
return {"error": str(e)}
|
82 |
|
83 |
|
84 |
import sys
|
|
|
96 |
nodes = parser.get_nodes_from_documents([doc])
|
97 |
print(f"✅ Nombre de chunks générés : {len(nodes)}")
|
98 |
print(f"🧩 Exemple chunk : {nodes[0].text[:100]}...")
|
99 |
+
|
100 |
except Exception as e:
|
101 |
+
import traceback
|
102 |
+
traceback.print_exc()
|
103 |
print(f"❌ Erreur lors du split sémantique : {e}")
|
104 |
+
|
105 |
nodes = fallback_splitter.get_nodes_from_documents([doc])
|
106 |
print(f"⚠️ Split fallback utilisé - chunks générés : {len(nodes)}")
|
107 |
|