Spaces:
Running
Running
Update app.py
Browse files
app.py
CHANGED
@@ -3,11 +3,7 @@ import gradio as gr
|
|
3 |
from langchain_google_genai import ChatGoogleGenerativeAI
|
4 |
from langchain import LLMChain, PromptTemplate
|
5 |
from langchain.memory import ConversationBufferMemory
|
6 |
-
|
7 |
-
ChatGoogleGenerativeAI,
|
8 |
-
HarmBlockThreshold,
|
9 |
-
HarmCategory,
|
10 |
-
)
|
11 |
|
12 |
|
13 |
|
@@ -17,14 +13,10 @@ token=os.environ.get("TOKEN")
|
|
17 |
os.environ["GOOGLE_API_KEY"] = token
|
18 |
|
19 |
# Read the content of dikota.txt
|
20 |
-
# Lire le contenu de dikota.txt
|
21 |
with open("dikota.txt", "r", encoding="utf-8") as f:
|
22 |
dikota_content = f.read()
|
23 |
|
24 |
-
|
25 |
-
template = """Utilisez les éléments de contexte suivants pour répondre à la question à la fin. Si vous ne connaissez pas la réponse, traduisez ce que vous pouvez et réécrivez les autres comme ça, n'essayez pas d'inventer une réponse. Je veux que tu agisses comme un traducteur dikota. Je parle en dikota ou en français et tu réponds en dikota en te basant sur le contexte. Je ne veux aucune explication. Juste la réponse. C'est une sorte de dialogue.
|
26 |
-
|
27 |
-
{dikota_content}
|
28 |
|
29 |
{chat_history}
|
30 |
|
@@ -32,17 +24,8 @@ User: {user_message}
|
|
32 |
|
33 |
Chatbot:"""
|
34 |
|
35 |
-
# Créer une instance de PromptTemplate avec les variables nécessaires
|
36 |
prompt = PromptTemplate(
|
37 |
-
input_variables=["
|
38 |
-
template=template
|
39 |
-
)
|
40 |
-
|
41 |
-
# Utilisation de la template avec les variables
|
42 |
-
formatted_prompt = prompt.format(
|
43 |
-
dikota_content=dikota_content,
|
44 |
-
chat_history="",
|
45 |
-
user_message="Votre message ici"
|
46 |
)
|
47 |
|
48 |
memory = ConversationBufferMemory(memory_key="chat_history")
|
@@ -54,10 +37,24 @@ llm_chain = LLMChain(
|
|
54 |
memory=memory,
|
55 |
)
|
56 |
|
57 |
-
def get_text_response(user_message,
|
58 |
-
|
59 |
-
|
60 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
61 |
|
62 |
demo = gr.ChatInterface(get_text_response)
|
63 |
|
|
|
3 |
from langchain_google_genai import ChatGoogleGenerativeAI
|
4 |
from langchain import LLMChain, PromptTemplate
|
5 |
from langchain.memory import ConversationBufferMemory
|
6 |
+
|
|
|
|
|
|
|
|
|
7 |
|
8 |
|
9 |
|
|
|
13 |
os.environ["GOOGLE_API_KEY"] = token
|
14 |
|
15 |
# Read the content of dikota.txt
|
|
|
16 |
with open("dikota.txt", "r", encoding="utf-8") as f:
|
17 |
dikota_content = f.read()
|
18 |
|
19 |
+
template = """ Agis comme un assistant amical
|
|
|
|
|
|
|
20 |
|
21 |
{chat_history}
|
22 |
|
|
|
24 |
|
25 |
Chatbot:"""
|
26 |
|
|
|
27 |
prompt = PromptTemplate(
|
28 |
+
input_variables=["chat_history", "user_message"], template=template
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
29 |
)
|
30 |
|
31 |
memory = ConversationBufferMemory(memory_key="chat_history")
|
|
|
37 |
memory=memory,
|
38 |
)
|
39 |
|
40 |
+
def get_text_response(user_message,history):
|
41 |
+
r =f"""
|
42 |
+
|
43 |
+
Utillisez les éléments de contexte suivants pour répondre à la question à la fin. Si vous ne connaissez pas la réponse,traduissez ce que vous pouvez et reecriver les autre comme ca , n'essayez pas d'inventer une réponse. Je veux que tu agisses comme un traducteur dikota. Je parle en dikota ou en francais et tu reponds en dikota en te basant sur le contexte. Je ne veux aucune explication. Juste la réponse. cest une sorte de dialogue.
|
44 |
+
|
45 |
+
contexte : {dikota_content}
|
46 |
+
|
47 |
+
|
48 |
+
-----
|
49 |
+
|
50 |
+
{user_message}
|
51 |
+
"""
|
52 |
+
|
53 |
+
response = llm_chain.predict(user_message = r)
|
54 |
+
|
55 |
+
print(user_message)
|
56 |
+
#return "Non abonné"
|
57 |
+
return response
|
58 |
|
59 |
demo = gr.ChatInterface(get_text_response)
|
60 |
|