Spaces:
Sleeping
Sleeping
File size: 6,081 Bytes
fd90c49 235412b fd90c49 a7aa125 244e857 fd90c49 9faaee5 fd90c49 8c5a7b2 fd90c49 235412b fd90c49 a7aa125 fd90c49 a7aa125 fd90c49 a73e1ef fd90c49 4b347f0 fd90c49 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 |
import gradio as gr
import os
from langdetect import detect
from sentence_transformers import SentenceTransformer
import numpy as np
import re
import random
# Загрузка и предварительная обработка текстовых файлов
def load_and_preprocess_files():
files = {
"vampires": "vampires.txt",
"werewolves": "werewolves.txt",
"humans": "humans.txt"
}
knowledge_base = {}
for category, filename in files.items():
try:
with open(filename, 'r', encoding='utf-8') as file:
content = file.read()
# Разбиваем на осмысленные блоки (абзацы)
paragraphs = [p.strip() for p in content.split('\n\n') if p.strip()]
knowledge_base[category] = paragraphs
except FileNotFoundError:
print(f"Файл {filename} не найден")
knowledge_base[category] = []
return knowledge_base
# Инициализация модели для семантического поиска
def initialize_search_model():
return SentenceTransformer('sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2')
# Поиск релевантной информации
def find_relevant_info(question, knowledge_base, model, top_k=3):
all_fragments = []
for category, paragraphs in knowledge_base.items():
for para in paragraphs:
all_fragments.append((para, category))
if not all_fragments:
return []
texts = [f[0] for f in all_fragments]
embeddings = model.encode(texts)
question_embedding = model.encode([question])
similarities = np.dot(embeddings, question_embedding.T).flatten()
top_indices = similarities.argsort()[-top_k:][::-1]
return [all_fragments[i] for i in top_indices]
# Генерация естественного ответа
def generate_natural_response(question, relevant_info):
if not relevant_info:
return "Извините, не нашел информации по вашему вопросу. Попробуйте переформулировать."
question_type = "о них"
if "вампир" in question.lower():
question_type = "о вампирах"
elif "оборотн" in question.lower() or "волколак" in question.lower():
question_type = "об оборотнях"
elif "человек" in question.lower() or "люди" in question.lower():
question_type = "о людях"
unique_info = []
seen = set()
for para, category in relevant_info:
if para not in seen:
unique_info.append((para, category))
seen.add(para)
response = f"Вот что мне известно {question_type}:\n\n"
for i, (para, category) in enumerate(unique_info, 1):
if para.startswith("- "):
para = para.replace("\n- ", "\n• ").replace("- ", "• ")
if len(set(c for _, c in unique_info)) > 1:
response += f"{i}. ({category.capitalize()}) {para}\n\n"
else:
response += f"{i}. {para}\n\n"
endings = [
"Надеюсь, эта информация была полезной!",
"Если хотите узнать больше деталей, уточните вопрос.",
"Могу уточнить какие-то моменты, если нужно.",
"Это основные сведения, которые у меня есть."
]
response += random.choice(endings)
return response
# Обработка вопроса
def process_question(question, history):
try:
if detect(question) != 'ru':
return "Пожалуйста, задавайте вопросы на русском языке.", history
except:
pass
if not hasattr(process_question, 'knowledge_base'):
process_question.knowledge_base = load_and_preprocess_files()
if not hasattr(process_question, 'search_model'):
process_question.search_model = initialize_search_model()
relevant_info = find_relevant_info(question, process_question.knowledge_base, process_question.search_model)
answer = generate_natural_response(question, relevant_info)
history.append((question, answer))
return "", history
# Создание интерфейса
with gr.Blocks(theme=gr.themes.Soft()) as demo:
gr.Markdown("""<h1 style='text-align: center'>🧛♂️ Мир сверхъестественного 🐺</h1>""")
gr.Markdown("""<div style='text-align: center'>Задавайте вопросы о вампирах, оборотнях и людях на русском языке</div>""")
# Сначала определяем элементы ввода
msg = gr.Textbox(
label="Ваш вопрос",
placeholder="Введите вопрос и нажмите Enter...",
container=False
)
# Затем определяем примеры, которые используют msg
examples = gr.Examples(
examples=[
"Какие слабости у вампиров?",
"Как защититься от оборотней?",
"Чем люди отличаются от других существ?",
"Расскажи подробнее о вампирах"
],
inputs=[msg],
label="Примеры вопросов:"
)
# Затем определяем чат
chatbot = gr.Chatbot(
label="Диалог",
height=500
)
with gr.Row():
submit = gr.Button("Отправить", variant="primary")
clear = gr.Button("Очистить историю")
submit.click(process_question, [msg, chatbot], [msg, chatbot])
msg.submit(process_question, [msg, chatbot], [msg, chatbot])
clear.click(lambda: None, None, chatbot, queue=False)
demo.launch() |