import gradio as gr import g4f # # # supporte args # Automatic selection of provider # streamed completion from g4f import Provider, models from langchain.llms.base import LLM from langchain_g4f import G4FLLM def main(input_text): llm: LLM = G4FLLM( model=models.gpt_35_turbo, provider=Provider.ChatgptLogin, ) input_texxt ="Tu es un assistant intelligent.ton but est d'assiter au mieux que tu peux. tu as ete creer par le docteur Traoré et tu t'appelles Mariam." + input_text print("Question:", input_text) print() print() res = llm(input_texxt) print(res) # Hello! How can I assist you today? return res def chatbot_interaction(input_text): input_texxt ="Tu es un assistant intelligent.ton but est d'assiter au mieux que tu peux. tu as ete creer par le docteur Traoré et tu t'appelles Mariam." + input_text print("Question:", input_text) response = g4f.ChatCompletion.create( model="gpt-3.5-turbo", provider=g4f.Provider.ChatgptAi, messages=[{"role": "user", "content": input_texxt}], stream=False, ) print() print() print() print("réponse") print() print() print() Q = "" for message in response: print(message, flush=True, end='') Q += message print(Q) return Q iface = gr.Interface( fn=main, inputs="text", outputs=gr.Textbox(label="Réponse"), title="bot", description="By Isa Ibn Maryam. 😂😂 Vas dormir ! Espace fermé ! ") iface.launch()