Spaces:
Sleeping
Sleeping
File size: 1,772 Bytes
bd9617d 369eeaa bd9617d 369eeaa bd9617d a4fb07e 6e80ea9 bd9617d 369eeaa bd9617d 369eeaa bd9617d 369eeaa bd9617d |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 |
import os
import gradio as gr
import requests
# Замените на свои значения
base_url = os.getenv("BASE_URL")
api_key = os.getenv("API_KEY")
# URL для запроса к GPT-3.5-turbo
gpt_url = f'{base_url}'
# Функция для генерации ответа от GPT-3.5-turbo
def generate_response(prompt):
headers = {
"Content-Type": "application/json",
"Authorization": f"Bearer {api_key}",
}
data = {
"prompt": prompt,
"max_tokens": 150,
}
response = requests.post(gpt_url, json=data, headers=headers)
return response.json()["choices"][0]["text"].strip()
# Создание интерфейса чата с использованием Gradio
def chat_interface(messages):
# Собираем все сообщения в одну строку, чтобы использовать как контекст для GPT-3.5-turbo
conversation_history = "\n".join(messages)
# Генерируем ответ от GPT-3.5-turbo
response = generate_response(conversation_history)
# Добавляем сгенерированный ответ к списку сообщений
messages.append(response)
# Создаем интерфейс Gradio с возможностью удаления или изменения каждого сообщения
iface = gr.Interface(
fn=chat_interface,
inputs=["text"],
outputs="text",
live=True,
examples=[[conversation_history]],
title="Chat with GPT-3.5-turbo",
description="Type a message and see GPT-3.5-turbo's response.",
)
return iface
# Запуск интерфейса Gradio
if __name__ == "__main__":
chat_interface([]).launch()
|