Docfile commited on
Commit
5c5ac6f
·
verified ·
1 Parent(s): f1dc858

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +35 -7
app.py CHANGED
@@ -4,37 +4,65 @@ from langchain_google_genai import ChatGoogleGenerativeAI
4
  from langchain import LLMChain, PromptTemplate
5
  from langchain.memory import ConversationBufferMemory
6
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
7
 
8
  import getpass
9
 
10
  token=os.environ.get("TOKEN")
11
  os.environ["GOOGLE_API_KEY"] = token
12
 
13
- template = """You are a helpful assistant to answer all user queries.
 
 
 
 
 
 
 
14
  {chat_history}
 
15
  User: {user_message}
 
16
  Chatbot:"""
17
 
18
  prompt = PromptTemplate(
19
- input_variables=["chat_history", "user_message"], template=template
20
  )
21
 
22
  memory = ConversationBufferMemory(memory_key="chat_history")
23
 
24
  llm_chain = LLMChain(
25
- llm=ChatGoogleGenerativeAI(model="gemini-pro"),
 
26
  prompt=prompt,
27
  verbose=True,
28
  memory=memory,
29
  )
30
 
31
  def get_text_response(user_message,history):
32
- #response = llm_chain.predict(user_message = user_message)
33
 
34
  print(user_message)
35
- return "Non abonné"
36
- #return response
37
 
38
  demo = gr.ChatInterface(get_text_response)
39
 
40
- demo.launch() #To create a public link, set `share=True` in `launch()`. To enable errors and logs, set `debug=True` in `launch()`.
 
4
  from langchain import LLMChain, PromptTemplate
5
  from langchain.memory import ConversationBufferMemory
6
 
7
+ safety_settings = [
8
+ {
9
+ "category": "HARM_CATEGORY_HARASSMENT",
10
+ "threshold": "BLOCK_NONE"
11
+ },
12
+ {
13
+ "category": "HARM_CATEGORY_HATE_SPEECH",
14
+ "threshold": "BLOCK_NONE"
15
+ },
16
+ {
17
+ "category": "HARM_CATEGORY_SEXUALLY_EXPLICIT",
18
+ "threshold": "BLOCK_NONE"
19
+ },
20
+ {
21
+ "category": "HARM_CATEGORY_DANGEROUS_CONTENT",
22
+ "threshold": "BLOCK_NONE"
23
+ },
24
+ ]
25
 
26
  import getpass
27
 
28
  token=os.environ.get("TOKEN")
29
  os.environ["GOOGLE_API_KEY"] = token
30
 
31
+ # Read the content of dikota.txt
32
+ with open("dikota.txt", "r", encoding="utf-8") as f:
33
+ dikota_content = f.read()
34
+
35
+ template = """Utillisez les éléments de contexte suivants pour répondre à la question à la fin. Si vous ne connaissez pas la réponse,traduissez ce que vous pouvez et reecriver les autre comme ca , n'essayez pas d'inventer une réponse. Je veux que tu agisses comme un traducteur dikota. Je parle en dikota ou en francais et tu reponds en dikota en te basant sur le contexte. Je ne veux aucune explication. Juste la réponse. cest une sorte de dialogue,
36
+
37
+ {dikota_content}
38
+
39
  {chat_history}
40
+
41
  User: {user_message}
42
+
43
  Chatbot:"""
44
 
45
  prompt = PromptTemplate(
46
+ input_variables=["chat_history", "user_message", "dikota_content"], template=template
47
  )
48
 
49
  memory = ConversationBufferMemory(memory_key="chat_history")
50
 
51
  llm_chain = LLMChain(
52
+ llm=ChatGoogleGenerativeAI(model="gemini-1.5-flash-lastest"),
53
+ safety_settings=safety_settings,
54
  prompt=prompt,
55
  verbose=True,
56
  memory=memory,
57
  )
58
 
59
  def get_text_response(user_message,history):
60
+ response = llm_chain.predict(user_message = user_message)
61
 
62
  print(user_message)
63
+ #return "Non abonné"
64
+ return response
65
 
66
  demo = gr.ChatInterface(get_text_response)
67
 
68
+ demo.launch() #To create a public link, set `share=True` in `launch()`. To enable errors and logs, set `debug=True` in `launch()`.