albhu commited on
Commit
0d91b04
·
verified ·
1 Parent(s): 58f6eeb

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +3 -3
app.py CHANGED
@@ -3,7 +3,7 @@ import pdfplumber
3
  import docx
4
  from transformers import AutoTokenizer, AutoModelForCausalLM
5
 
6
- st.title("Jogi Dokumentumok AI Válaszgenerálás")
7
 
8
  # Előző beszélgetések tárolása session state-ben
9
  if "previous_conversations" not in st.session_state:
@@ -23,10 +23,10 @@ model = AutoModelForCausalLM.from_pretrained(generator_name, trust_remote_code=T
23
  # Definiáljuk a válaszgeneráló függvényt
24
  def generate_response(input_text, tokenizer, model):
25
  # Tokenizálás
26
- input_ids = tokenizer.encode(input_text, return_tensors="pt", max_length=3012)
27
 
28
  # Modell használata a válasz generálásához
29
- output = model.generate(input_ids, max_length=3012, num_return_sequences=1, pad_token_id=tokenizer.eos_token_id)
30
 
31
  # Decoding és válasz visszaadása
32
  response = tokenizer.decode(output[0], skip_special_tokens=True)
 
3
  import docx
4
  from transformers import AutoTokenizer, AutoModelForCausalLM
5
 
6
+ st.title("Jai")
7
 
8
  # Előző beszélgetések tárolása session state-ben
9
  if "previous_conversations" not in st.session_state:
 
23
  # Definiáljuk a válaszgeneráló függvényt
24
  def generate_response(input_text, tokenizer, model):
25
  # Tokenizálás
26
+ input_ids = tokenizer.encode(input_text, return_tensors="pt", max_length=512)
27
 
28
  # Modell használata a válasz generálásához
29
+ output = model.generate(input_ids, max_length=512, num_return_sequences=1, pad_token_id=tokenizer.eos_token_id)
30
 
31
  # Decoding és válasz visszaadása
32
  response = tokenizer.decode(output[0], skip_special_tokens=True)