Spaces:
Runtime error
Runtime error
Update app.py
Browse files
app.py
CHANGED
@@ -94,8 +94,6 @@ def initialize_llmchain(llm_model, temperature, max_tokens, top_k, vector_db, pr
|
|
94 |
temperature=temperature,
|
95 |
max_new_tokens=max_tokens,
|
96 |
top_k=top_k,
|
97 |
-
# Adiciona um prompt de sistema para responder em português
|
98 |
-
system_prompt="Por favor, responda em português."
|
99 |
)
|
100 |
|
101 |
progress(0.75, desc="Definindo memória de buffer...")
|
@@ -116,7 +114,7 @@ def initialize_llmchain(llm_model, temperature, max_tokens, top_k, vector_db, pr
|
|
116 |
)
|
117 |
progress(0.9, desc="Concluído!")
|
118 |
return qa_chain
|
119 |
-
|
120 |
# Função para gerar um nome de coleção válido
|
121 |
def create_collection_name(filepath):
|
122 |
collection_name = Path(filepath).stem
|
@@ -163,10 +161,8 @@ def format_chat_history(message, chat_history):
|
|
163 |
|
164 |
# Função para realizar a conversa com o chatbot
|
165 |
def conversation(qa_chain, message, history):
|
166 |
-
|
167 |
-
|
168 |
-
formatted_chat_history = format_chat_history(message_with_language, history)
|
169 |
-
response = qa_chain({"question": message_with_language, "chat_history": formatted_chat_history})
|
170 |
response_answer = response["answer"]
|
171 |
if response_answer.find("Resposta útil:") != -1:
|
172 |
response_answer = response_answer.split("Resposta útil:")[-1]
|
@@ -285,4 +281,4 @@ def demo():
|
|
285 |
|
286 |
|
287 |
if __name__ == "__main__":
|
288 |
-
demo()
|
|
|
94 |
temperature=temperature,
|
95 |
max_new_tokens=max_tokens,
|
96 |
top_k=top_k,
|
|
|
|
|
97 |
)
|
98 |
|
99 |
progress(0.75, desc="Definindo memória de buffer...")
|
|
|
114 |
)
|
115 |
progress(0.9, desc="Concluído!")
|
116 |
return qa_chain
|
117 |
+
|
118 |
# Função para gerar um nome de coleção válido
|
119 |
def create_collection_name(filepath):
|
120 |
collection_name = Path(filepath).stem
|
|
|
161 |
|
162 |
# Função para realizar a conversa com o chatbot
|
163 |
def conversation(qa_chain, message, history):
|
164 |
+
formatted_chat_history = format_chat_history(message, history)
|
165 |
+
response = qa_chain({"question": message, "chat_history": formatted_chat_history})
|
|
|
|
|
166 |
response_answer = response["answer"]
|
167 |
if response_answer.find("Resposta útil:") != -1:
|
168 |
response_answer = response_answer.split("Resposta útil:")[-1]
|
|
|
281 |
|
282 |
|
283 |
if __name__ == "__main__":
|
284 |
+
demo()
|