Spaces:
Sleeping
Sleeping
File size: 6,009 Bytes
8c5a7b2 235412b 404755d 2782135 84c49b0 9faaee5 2782135 235412b 84c49b0 235412b 2782135 235412b 2782135 235412b 2782135 235412b 2782135 a73e1ef 2782135 404755d 8c5a7b2 84c49b0 2782135 404755d 235412b 2782135 404755d 2782135 235412b 2782135 84c49b0 2782135 235412b 84c49b0 404755d 95f2e49 404755d 235412b 2782135 235412b 404755d 235412b 2782135 404755d a73e1ef 84c49b0 2782135 84c49b0 2782135 84c49b0 2782135 404755d 235412b 4b347f0 84c49b0 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 |
import gradio as gr
import os
from langdetect import detect
from sentence_transformers import SentenceTransformer
import numpy as np
import re
import random
# Загрузка и предварительная обработка текстовых файлов
def load_and_preprocess_files():
files = {
"vampires": "vampires.txt"
}
knowledge_base = {}
for category, filename in files.items():
try:
with open(filename, 'r', encoding='utf-8') as file:
content = file.read()
# Разбиваем на осмысленные блоки (абзацы)
paragraphs = [p.strip() for p in content.split('\n\n') if p.strip()]
knowledge_base[category] = paragraphs
except FileNotFoundError:
print(f"Файл {filename} не найден")
knowledge_base[category] = []
return knowledge_base
# Инициализация модели для семантического поиска
def initialize_search_model():
return SentenceTransformer('sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2')
# Поиск релевантной информации
def find_relevant_info(question, knowledge_base, model, top_k=3):
all_fragments = []
for category, paragraphs in knowledge_base.items():
for para in paragraphs:
all_fragments.append((para, category))
if not all_fragments:
return []
texts = [f[0] for f in all_fragments]
embeddings = model.encode(texts)
question_embedding = model.encode([question])
similarities = np.dot(embeddings, question_embedding.T).flatten()
top_indices = similarities.argsort()[-top_k:][::-1]
return [all_fragments[i] for i in top_indices]
# Генерация естественного ответа
def generate_natural_response(question, relevant_info):
if not relevant_info:
return "Извините, не нашел информации по вашему вопросу. Попробуйте переформулировать."
question_type = "о них"
if "вампир" in question.lower():
question_type = "о вампирах"
elif "оборотн" in question.lower() or "волколак" in question.lower():
question_type = "об оборотнях"
elif "человек" in question.lower() or "люди" in question.lower():
question_type = "о людях"
unique_info = []
seen = set()
for para, category in relevant_info:
if para not in seen:
unique_info.append((para, category))
seen.add(para)
response = f"Вот что мне известно {question_type}:\n\n"
for i, (para, category) in enumerate(unique_info, 1):
if para.startswith("- "):
para = para.replace("\n- ", "\n• ").replace("- ", "• ")
if len(set(c for _, c in unique_info)) > 1:
response += f"{i}. ({category.capitalize()}) {para}\n\n"
else:
response += f"{i}. {para}\n\n"
endings = [
"Надеюсь, эта информация была полезной!",
"Если хотите узнать больше деталей, уточните вопрос.",
"Могу уточнить какие-то моменты, если нужно.",
"Это основные сведения, которые у меня есть."
]
response += random.choice(endings)
return response
# Обработка вопроса
def process_question(question, history):
try:
if detect(question) != 'ru':
return "Пожалуйста, задавайте вопросы на русском языке.", history
except:
pass
if not hasattr(process_question, 'knowledge_base'):
process_question.knowledge_base = load_and_preprocess_files()
if not hasattr(process_question, 'search_model'):
process_question.search_model = initialize_search_model()
relevant_info = find_relevant_info(question, process_question.knowledge_base, process_question.search_model)
answer = generate_natural_response(question, relevant_info)
history.append((question, answer))
return "", history
# Создание интерфейса
with gr.Blocks(theme=gr.themes.Soft()) as demo:
gr.Markdown("""<h1 style='text-align: center'>🧛♂️ Мир сверхъестественного 🐺</h1>""")
gr.Markdown("""<div style='text-align: center'>Задавайте вопросы о вампирах, оборотнях и людях на русском языке</div>""")
# Сначала определяем элементы ввода
msg = gr.Textbox(
label="Ваш вопрос",
placeholder="Введите вопрос и нажмите Enter...",
container=False
)
# Затем определяем примеры, которые используют msg
examples = gr.Examples(
examples=[
"Какие слабости у вампиров?",
"Как защититься от оборотней?",
"Чем люди отличаются от других существ?",
"Расскажи подробнее о вампирах"
],
inputs=[msg],
label="Примеры вопросов:"
)
# Затем определяем чат
chatbot = gr.Chatbot(
label="Диалог",
height=500
)
with gr.Row():
submit = gr.Button("Отправить", variant="primary")
clear = gr.Button("Очистить историю")
submit.click(process_question, [msg, chatbot], [msg, chatbot])
msg.submit(process_question, [msg, chatbot], [msg, chatbot])
clear.click(lambda: None, None, chatbot, queue=False)
demo.launch() |