Docfile commited on
Commit
62cf64d
·
verified ·
1 Parent(s): e9c32f8

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +21 -24
app.py CHANGED
@@ -3,11 +3,7 @@ import gradio as gr
3
  from langchain_google_genai import ChatGoogleGenerativeAI
4
  from langchain import LLMChain, PromptTemplate
5
  from langchain.memory import ConversationBufferMemory
6
- from langchain_google_genai import (
7
- ChatGoogleGenerativeAI,
8
- HarmBlockThreshold,
9
- HarmCategory,
10
- )
11
 
12
 
13
 
@@ -17,14 +13,10 @@ token=os.environ.get("TOKEN")
17
  os.environ["GOOGLE_API_KEY"] = token
18
 
19
  # Read the content of dikota.txt
20
- # Lire le contenu de dikota.txt
21
  with open("dikota.txt", "r", encoding="utf-8") as f:
22
  dikota_content = f.read()
23
 
24
- # Modèle de texte
25
- template = """Utilisez les éléments de contexte suivants pour répondre à la question à la fin. Si vous ne connaissez pas la réponse, traduisez ce que vous pouvez et réécrivez les autres comme ça, n'essayez pas d'inventer une réponse. Je veux que tu agisses comme un traducteur dikota. Je parle en dikota ou en français et tu réponds en dikota en te basant sur le contexte. Je ne veux aucune explication. Juste la réponse. C'est une sorte de dialogue.
26
-
27
- {dikota_content}
28
 
29
  {chat_history}
30
 
@@ -32,17 +24,8 @@ User: {user_message}
32
 
33
  Chatbot:"""
34
 
35
- # Créer une instance de PromptTemplate avec les variables nécessaires
36
  prompt = PromptTemplate(
37
- input_variables=["dikota_content", "chat_history", "user_message"],
38
- template=template
39
- )
40
-
41
- # Utilisation de la template avec les variables
42
- formatted_prompt = prompt.format(
43
- dikota_content=dikota_content,
44
- chat_history="",
45
- user_message="Votre message ici"
46
  )
47
 
48
  memory = ConversationBufferMemory(memory_key="chat_history")
@@ -54,10 +37,24 @@ llm_chain = LLMChain(
54
  memory=memory,
55
  )
56
 
57
- def get_text_response(user_message, history): # dikota_content added
58
- response = llm_chain.predict(user_message=user_message)
59
- print(user_message)
60
- return response
 
 
 
 
 
 
 
 
 
 
 
 
 
 
61
 
62
  demo = gr.ChatInterface(get_text_response)
63
 
 
3
  from langchain_google_genai import ChatGoogleGenerativeAI
4
  from langchain import LLMChain, PromptTemplate
5
  from langchain.memory import ConversationBufferMemory
6
+
 
 
 
 
7
 
8
 
9
 
 
13
  os.environ["GOOGLE_API_KEY"] = token
14
 
15
  # Read the content of dikota.txt
 
16
  with open("dikota.txt", "r", encoding="utf-8") as f:
17
  dikota_content = f.read()
18
 
19
+ template = """ Agis comme un assistant amical
 
 
 
20
 
21
  {chat_history}
22
 
 
24
 
25
  Chatbot:"""
26
 
 
27
  prompt = PromptTemplate(
28
+ input_variables=["chat_history", "user_message"], template=template
 
 
 
 
 
 
 
 
29
  )
30
 
31
  memory = ConversationBufferMemory(memory_key="chat_history")
 
37
  memory=memory,
38
  )
39
 
40
+ def get_text_response(user_message,history):
41
+ r =f"""
42
+
43
+ Utillisez les éléments de contexte suivants pour répondre à la question à la fin. Si vous ne connaissez pas la réponse,traduissez ce que vous pouvez et reecriver les autre comme ca , n'essayez pas d'inventer une réponse. Je veux que tu agisses comme un traducteur dikota. Je parle en dikota ou en francais et tu reponds en dikota en te basant sur le contexte. Je ne veux aucune explication. Juste la réponse. cest une sorte de dialogue.
44
+
45
+ contexte : {dikota_content}
46
+
47
+
48
+ -----
49
+
50
+ {user_message}
51
+ """
52
+
53
+ response = llm_chain.predict(user_message = r)
54
+
55
+ print(user_message)
56
+ #return "Non abonné"
57
+ return response
58
 
59
  demo = gr.ChatInterface(get_text_response)
60