Bhh / app.py
Docfile's picture
Update app.py
94f835a
raw
history blame
1.53 kB
import gradio as gr
import g4f
#
#
# supporte args
# Automatic selection of provider
# streamed completion
from g4f import Provider, models
from langchain.llms.base import LLM
from langchain_g4f import G4FLLM
def main(input_text):
llm: LLM = G4FLLM(
model=models.gpt_35_turbo,
provider=Provider.GptForLove,
)
input_texxt ="Tu es un assistant intelligent.ton but est d'assiter au mieux que tu peux. tu as ete creer par le docteur Traoré et tu t'appelles Mariam." + input_text
print("Question:", input_text)
print()
print()
res = llm(input_texxt)
print(res) # Hello! How can I assist you today?
return res
def chatbot_interaction(input_text):
input_texxt ="Tu es un assistant intelligent.ton but est d'assiter au mieux que tu peux. tu as ete creer par le docteur Traoré et tu t'appelles Mariam." + input_text
print("Question:", input_text)
response = g4f.ChatCompletion.create(
model="gpt-3.5-turbo",
provider=g4f.Provider.Aichat,
messages=[{"role": "user", "content": input_texxt}],
stream=False,
)
print()
print()
print()
print("réponse")
print()
print()
print()
Q = ""
for message in response:
print(message, flush=True, end='')
Q += message
print(Q)
return Q
iface = gr.Interface(
fn=main,
inputs="text",
outputs=gr.Textbox(label="Réponse"),
title="bot",
description="By Isa Ibn Maryam. 😂😂 Vas dormir ! Espace fermé ! ")
iface.launch()