prouditalian's picture
Update app.py
77b15dd
raw
history blame
1.59 kB
import streamlit as st
from transformers import AutoTokenizer, AutoModelForCausalLM
# from transformers import pipeline
model_name = "ai-forever/mGPT"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
# Декоратор @st.cache говорит Streamlit, что модель нужно загрузить только один раз, чтобы избежать утечек памяти
# @st.cache_resource
# загружает модель
# def load_model():
# return pipeline("text-generation", model=model, tokenizer=tokenizer)
# Загружаем предварительно обученную модель
# answer = load_model()
# Выводим заголовок страницы
st.title("Помощник студента")
st.write("Приложение поможет найти ответы на ваши вопросы")
# Получаем текст для анализа
text = st.text_area("Введите запрос")
# Создаем кнопку
button = st.button('Получить ответ')
# Выводим результат по нажатию кнопки
if button:
input_ids = tokenizer.encode(text, return_tensors="pt")
out = model.generate(
input_ids,
min_length=100,
max_length=100,
eos_token_id=5,
#pad_token=1,
top_k=10,
top_p=0.0,
no_repeat_ngram_size=5
)
generated_text = list(map(tokenizer.decode, out))[0]
st.subheader("Вот мой ответ:")
st.write(generated_text)