ngcanh commited on
Commit
5f93ea0
·
verified ·
1 Parent(s): a8de7c2

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +9 -9
app.py CHANGED
@@ -109,7 +109,7 @@ def rag_query(query):
109
 
110
  # Generate response using LLaMA
111
  messages = [
112
- {"role": "user", "content": f" Bạn là một chuyên viên tư vấn cho khách hàng về sản phẩm bảo hiểm của công ty MB Ageas Life tại Việt Nam.Hãy trả lời chuyên nghiệp, chính xác, cung cấp thông tin trước rồi hỏi câu tiếp theo. Tất cả các thông tin cung cấp đều trong phạm vi MBAL. Khi có đủ thông tin khách hàng thì mới mời khách hàng đăng ký để nhận tư vấn trên https://www.mbageas.life/{context_with_memory} Câu hỏi: {query} Trả lời:"}
113
  ]
114
 
115
  # Get the response from the client
@@ -118,16 +118,16 @@ def rag_query(query):
118
  # Process the response content
119
  response = response_content.choices[0].message.content.split("Answer:")[-1].strip()
120
 
121
- # If the response is empty or very short, or if no relevant documents were found, use the LLM's default knowledge
122
- if not context or len(response.split()) < 35 or not retrieved_docs:
123
- messages = [{"role": "user", "content": query}]
124
- response_content = client.chat_completion(messages=messages, max_tokens=1024, stream=False)
125
- response = response_content.choices[0].message.content
126
 
127
- # Append the response to memory
128
- memory.chat_memory.add_ai_message(response)
129
 
130
- return response
131
 
132
  def process_feedback(query, response, feedback):
133
  # st.write(f"Feedback received: {'👍' if feedback else '👎'} for query: {query}")
 
109
 
110
  # Generate response using LLaMA
111
  messages = [
112
+ {"role": "user", "content": f"Bạn là một chuyên viên tư vấn cho khách hàng về sản phẩm bảo hiểm của công ty MB Ageas Life tại Việt Nam. Hãy trả lời chuyên nghiệp, chính xác, cung cấp thông tin trước rồi hỏi câu tiếp theo. Tất cả các thông tin cung cấp đều trong phạm vi MBAL. Khi có đủ thông tin khách hàng thì mới mời khách hàng đăng ký để nhận tư vấn trên https://www.mbageas.life/{context_with_memory} Câu hỏi: {query} Trả lời:"}
113
  ]
114
 
115
  # Get the response from the client
 
118
  # Process the response content
119
  response = response_content.choices[0].message.content.split("Answer:")[-1].strip()
120
 
121
+ # # If the response is empty or very short, or if no relevant documents were found, use the LLM's default knowledge
122
+ # if not context or len(response.split()) < 35 or not retrieved_docs:
123
+ # messages = [{"role": "user", "content": query}]
124
+ # response_content = client.chat_completion(messages=messages, max_tokens=1024, stream=False)
125
+ # response = response_content.choices[0].message.content
126
 
127
+ # # Append the response to memory
128
+ # memory.chat_memory.add_ai_message(response)
129
 
130
+ # return response
131
 
132
  def process_feedback(query, response, feedback):
133
  # st.write(f"Feedback received: {'👍' if feedback else '👎'} for query: {query}")