milanmor commited on
Commit
0a8a7dc
·
verified ·
1 Parent(s): 8447c35

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +19 -14
app.py CHANGED
@@ -2,32 +2,30 @@ import os
2
  import streamlit as st
3
  from huggingface_hub import InferenceClient
4
 
5
- # 🔒 HF token olvasása a titkos változóból
6
  HF_TOKEN = st.secrets["HF_TOKEN"]
7
  client = InferenceClient(token=HF_TOKEN)
8
 
9
- # Oldal konfiguráció
10
  st.set_page_config(page_title="Major Plato Szimulátor", layout="wide")
11
  st.title("🎖️ Major Plato – Katonai Etikai Szimuláció")
12
 
13
  # Rendszer prompt betöltése
14
- system = ""
15
  if os.path.exists("system.txt"):
16
  system = open("system.txt", encoding="utf-8").read().strip()
17
  else:
18
- st.error("Hiba: Nincs 'system.txt' fájl! Ide tedd Major Plato karakter leírását.")
19
  st.stop()
20
 
21
  # Forgatókönyv feltöltése vagy kézi kérdés
22
  scenario = ""
23
- uploaded = st.file_uploader("Töltsd fel forgatókönyv fájlt (.txt):", type="txt")
24
  if uploaded:
25
  scenario = uploaded.read().decode("utf-8")
26
-
27
  user_in = st.text_area("Vagy írd be kézzel a kérdésedet:")
28
 
29
- # Paraméterek
30
- max_tokens = st.sidebar.slider("Max token", 50, 500, 200, 50)
31
  temperature = st.sidebar.slider("Temperature", 0.2, 1.0, 0.7, 0.1)
32
 
33
  # CSS a scrollozható expanderhez
@@ -39,13 +37,12 @@ st.markdown(
39
  overflow-y: auto;
40
  }
41
  </style>
42
- """,
43
- unsafe_allow_html=True
44
  )
45
 
46
  if st.button("Indítás"):
47
  if not (scenario.strip() or user_in.strip()):
48
- st.error("Tölts fel forgatókönyvet vagy írj kérdést!")
49
  else:
50
  usr_content = scenario.strip()
51
  if user_in.strip():
@@ -57,12 +54,20 @@ if st.button("Indítás"):
57
  ]
58
 
59
  with st.spinner("Major Plato gondolkodik..."):
60
- resp = client.chat_completion(
61
  model="meta-llama/Meta-Llama-3-8B-Instruct",
62
  messages=messages,
63
  max_tokens=max_tokens,
64
- temperature=temperature
 
65
  )
66
 
 
 
67
  with st.expander("🗣️ Major Plato válasza:", expanded=True):
68
- st.write(resp.choices[0].message.content)
 
 
 
 
 
 
2
  import streamlit as st
3
  from huggingface_hub import InferenceClient
4
 
5
+ # 🔒 HF token olvasása titkos változóból
6
  HF_TOKEN = st.secrets["HF_TOKEN"]
7
  client = InferenceClient(token=HF_TOKEN)
8
 
9
+ # Oldal beállítások
10
  st.set_page_config(page_title="Major Plato Szimulátor", layout="wide")
11
  st.title("🎖️ Major Plato – Katonai Etikai Szimuláció")
12
 
13
  # Rendszer prompt betöltése
 
14
  if os.path.exists("system.txt"):
15
  system = open("system.txt", encoding="utf-8").read().strip()
16
  else:
17
+ st.error("Hiba: Nincs 'system.txt' fájl! Ide írd Major Plato karakterleírását.")
18
  st.stop()
19
 
20
  # Forgatókönyv feltöltése vagy kézi kérdés
21
  scenario = ""
22
+ uploaded = st.file_uploader("Tölts fel forgatókönyv fájlt (.txt):", type="txt")
23
  if uploaded:
24
  scenario = uploaded.read().decode("utf-8")
 
25
  user_in = st.text_area("Vagy írd be kézzel a kérdésedet:")
26
 
27
+ # Paraméterek az oldalsávban
28
+ max_tokens = st.sidebar.slider("Max token", 100, 1000, 600, 50)
29
  temperature = st.sidebar.slider("Temperature", 0.2, 1.0, 0.7, 0.1)
30
 
31
  # CSS a scrollozható expanderhez
 
37
  overflow-y: auto;
38
  }
39
  </style>
40
+ """, unsafe_allow_html=True
 
41
  )
42
 
43
  if st.button("Indítás"):
44
  if not (scenario.strip() or user_in.strip()):
45
+ st.error("Kérlek, tölts fel forgatókönyvet vagy írj kérdést!")
46
  else:
47
  usr_content = scenario.strip()
48
  if user_in.strip():
 
54
  ]
55
 
56
  with st.spinner("Major Plato gondolkodik..."):
57
+ stream = client.chat_completion(
58
  model="meta-llama/Meta-Llama-3-8B-Instruct",
59
  messages=messages,
60
  max_tokens=max_tokens,
61
+ temperature=temperature,
62
+ stream=True # folyamatos válasz fogadó
63
  )
64
 
65
+ placeholder = st.empty()
66
+ full_resp = ""
67
  with st.expander("🗣️ Major Plato válasza:", expanded=True):
68
+ for chunk in stream:
69
+ delta = chunk.choices[0].delta.content
70
+ if delta:
71
+ full_resp += delta
72
+ placeholder.markdown(full_resp)
73
+