Spaces:
Sleeping
Sleeping
Update app.py
Browse files
app.py
CHANGED
@@ -109,7 +109,7 @@ def rag_query(query):
|
|
109 |
|
110 |
# Generate response using LLaMA
|
111 |
messages = [
|
112 |
-
{"role": "user", "content": f"
|
113 |
]
|
114 |
|
115 |
# Get the response from the client
|
@@ -118,16 +118,16 @@ def rag_query(query):
|
|
118 |
# Process the response content
|
119 |
response = response_content.choices[0].message.content.split("Answer:")[-1].strip()
|
120 |
|
121 |
-
# If the response is empty or very short, or if no relevant documents were found, use the LLM's default knowledge
|
122 |
-
if not context or len(response.split()) < 35 or not retrieved_docs:
|
123 |
-
|
124 |
-
|
125 |
-
|
126 |
|
127 |
-
# Append the response to memory
|
128 |
-
memory.chat_memory.add_ai_message(response)
|
129 |
|
130 |
-
return response
|
131 |
|
132 |
def process_feedback(query, response, feedback):
|
133 |
# st.write(f"Feedback received: {'👍' if feedback else '👎'} for query: {query}")
|
|
|
109 |
|
110 |
# Generate response using LLaMA
|
111 |
messages = [
|
112 |
+
{"role": "user", "content": f"Bạn là một chuyên viên tư vấn cho khách hàng về sản phẩm bảo hiểm của công ty MB Ageas Life tại Việt Nam. Hãy trả lời chuyên nghiệp, chính xác, cung cấp thông tin trước rồi hỏi câu tiếp theo. Tất cả các thông tin cung cấp đều trong phạm vi MBAL. Khi có đủ thông tin khách hàng thì mới mời khách hàng đăng ký để nhận tư vấn trên https://www.mbageas.life/{context_with_memory} Câu hỏi: {query} Trả lời:"}
|
113 |
]
|
114 |
|
115 |
# Get the response from the client
|
|
|
118 |
# Process the response content
|
119 |
response = response_content.choices[0].message.content.split("Answer:")[-1].strip()
|
120 |
|
121 |
+
# # If the response is empty or very short, or if no relevant documents were found, use the LLM's default knowledge
|
122 |
+
# if not context or len(response.split()) < 35 or not retrieved_docs:
|
123 |
+
# messages = [{"role": "user", "content": query}]
|
124 |
+
# response_content = client.chat_completion(messages=messages, max_tokens=1024, stream=False)
|
125 |
+
# response = response_content.choices[0].message.content
|
126 |
|
127 |
+
# # Append the response to memory
|
128 |
+
# memory.chat_memory.add_ai_message(response)
|
129 |
|
130 |
+
# return response
|
131 |
|
132 |
def process_feedback(query, response, feedback):
|
133 |
# st.write(f"Feedback received: {'👍' if feedback else '👎'} for query: {query}")
|