Spaces:
Running
Running
Update app.py
Browse files
app.py
CHANGED
@@ -38,7 +38,7 @@ def get_vector_store(text_chunks):
|
|
38 |
def get_conversational_chain():
|
39 |
"""Configura una cadena conversacional usando el modelo Groq LLM."""
|
40 |
prompt_template = """
|
41 |
-
Responde la pregunta de la manera más detallada posible a partir del contexto proporcionado. Si la respuesta no está en
|
42 |
el contexto proporcionado, simplemente di, "la respuesta no está disponible en el contexto." No proporciones respuestas incorrectas.
|
43 |
|
44 |
Contexto:
|
@@ -121,7 +121,7 @@ def main():
|
|
121 |
color: white;
|
122 |
}
|
123 |
.stButton>button {
|
124 |
-
background-color: #
|
125 |
color: white;
|
126 |
}
|
127 |
</style>
|
@@ -129,40 +129,27 @@ def main():
|
|
129 |
unsafe_allow_html=True
|
130 |
)
|
131 |
|
132 |
-
st.title("
|
133 |
-
|
134 |
-
st.sidebar.header("Subir y Procesar Archivos PDF")
|
135 |
-
st.sidebar.markdown(
|
136 |
-
"Usando el modelo DeepSeek R1 para capacidades conversacionales avanzadas."
|
137 |
-
)
|
138 |
|
139 |
with st.sidebar:
|
140 |
pdf_docs = st.file_uploader(
|
141 |
-
"
|
142 |
accept_multiple_files=True,
|
143 |
type=["pdf"]
|
144 |
)
|
145 |
-
if st.button("
|
146 |
-
with st.spinner("Procesando
|
147 |
raw_text = get_pdf_text(pdf_docs)
|
148 |
text_chunks = get_text_chunks(raw_text)
|
149 |
get_vector_store(text_chunks)
|
150 |
-
st.success("¡
|
151 |
|
152 |
-
st.markdown(
|
153 |
-
"### Haz Preguntas sobre tus Archivos PDF :mag:\n"
|
154 |
-
"Una vez que subas y proceses tus PDFs, escribe tus preguntas a continuación."
|
155 |
-
)
|
156 |
|
157 |
-
user_question = st.text_input("Introduce tu pregunta
|
158 |
|
159 |
if user_question:
|
160 |
with st.spinner("Obteniendo tu respuesta..."):
|
161 |
user_input(user_question)
|
162 |
|
163 |
-
st.sidebar.info(
|
164 |
-
"**Nota:** Esta aplicación usa el modelo DeepSeek R1 para responder preguntas de manera precisa."
|
165 |
-
)
|
166 |
-
|
167 |
if __name__ == "__main__":
|
168 |
main()
|
|
|
38 |
def get_conversational_chain():
|
39 |
"""Configura una cadena conversacional usando el modelo Groq LLM."""
|
40 |
prompt_template = """
|
41 |
+
Responde la pregunta en español de la manera más detallada posible a partir del contexto proporcionado. Si la respuesta no está en
|
42 |
el contexto proporcionado, simplemente di, "la respuesta no está disponible en el contexto." No proporciones respuestas incorrectas.
|
43 |
|
44 |
Contexto:
|
|
|
121 |
color: white;
|
122 |
}
|
123 |
.stButton>button {
|
124 |
+
background-color: #0b0175;
|
125 |
color: white;
|
126 |
}
|
127 |
</style>
|
|
|
129 |
unsafe_allow_html=True
|
130 |
)
|
131 |
|
132 |
+
st.title("PDF Consultor")
|
|
|
|
|
|
|
|
|
|
|
133 |
|
134 |
with st.sidebar:
|
135 |
pdf_docs = st.file_uploader(
|
136 |
+
"Subir archivo PDF",
|
137 |
accept_multiple_files=True,
|
138 |
type=["pdf"]
|
139 |
)
|
140 |
+
if st.button("Procesar"):
|
141 |
+
with st.spinner("Procesando el archivo..."):
|
142 |
raw_text = get_pdf_text(pdf_docs)
|
143 |
text_chunks = get_text_chunks(raw_text)
|
144 |
get_vector_store(text_chunks)
|
145 |
+
st.success("¡PDF procesado exitosamente!")
|
146 |
|
|
|
|
|
|
|
|
|
147 |
|
148 |
+
user_question = st.text_input("Introduce tu pregunta", placeholder="¿Qué quieres saber?")
|
149 |
|
150 |
if user_question:
|
151 |
with st.spinner("Obteniendo tu respuesta..."):
|
152 |
user_input(user_question)
|
153 |
|
|
|
|
|
|
|
|
|
154 |
if __name__ == "__main__":
|
155 |
main()
|