Spaces:
Sleeping
Sleeping
import streamlit as st | |
from groq import Groq | |
import os | |
# Cliente de Groq inicializado con la clave API desde una variable de entorno | |
client = Groq(api_key=os.environ.get("GROQ_API_KEY")) | |
st.title("Chatbot de Asistencia sobre Sergio Chic贸n") | |
# Inicializa el historial de mensajes | |
if "messages" not in st.session_state: | |
st.session_state.messages = [] | |
# Acepta la entrada del usuario | |
user_input = st.chat_input("Hazme una pregunta:") | |
# La l贸gica para responder y actualizar el chat | |
if user_input: | |
# Agrega inmediatamente el mensaje del usuario al historial de chat para que se muestre en la interfaz | |
st.session_state.messages.append({"role": "user", "content": user_input}) | |
# Genera y muestra la respuesta del asistente | |
with st.spinner('El asistente est谩 escribiendo...'): | |
assistant_response = process_text(user_input) | |
# Agrega la respuesta del asistente al historial de chat | |
st.session_state.messages.append({"role": "assistant", "content": assistant_response}) | |
# Muestra los mensajes del chat desde el historial despu茅s de la l贸gica de respuesta | |
for message in st.session_state.messages: | |
with st.chat_message(message["role"]): | |
st.markdown(message["content"]) | |
# Procesa la entrada de texto del usuario y genera una respuesta | |
def process_text(input_text): | |
prompt = '''[Aqu铆 tu prompt sobre Sergio...] Responde esta pregunta sobre Sergio: ''' | |
input = prompt + input_text | |
# Suponiendo que tu cliente de Groq tenga un m茅todo para obtener la respuesta | |
chat_completion = client.chat.completions.create( | |
messages=[ | |
{ | |
"role": "user", | |
"content": input, | |
} | |
], | |
model="mixtral-8x7b-32768", | |
) | |
return chat_completion.choices[0].message.content | |