lozanopastor commited on
Commit
5fc314d
·
verified ·
1 Parent(s): 6ce66ba

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +8 -21
app.py CHANGED
@@ -38,7 +38,7 @@ def get_vector_store(text_chunks):
38
  def get_conversational_chain():
39
  """Configura una cadena conversacional usando el modelo Groq LLM."""
40
  prompt_template = """
41
- Responde la pregunta de la manera más detallada posible a partir del contexto proporcionado. Si la respuesta no está en
42
  el contexto proporcionado, simplemente di, "la respuesta no está disponible en el contexto." No proporciones respuestas incorrectas.
43
 
44
  Contexto:
@@ -121,7 +121,7 @@ def main():
121
  color: white;
122
  }
123
  .stButton>button {
124
- background-color: #1E90FF;
125
  color: white;
126
  }
127
  </style>
@@ -129,40 +129,27 @@ def main():
129
  unsafe_allow_html=True
130
  )
131
 
132
- st.title("Chat con PDF usando DeepSeek AI")
133
-
134
- st.sidebar.header("Subir y Procesar Archivos PDF")
135
- st.sidebar.markdown(
136
- "Usando el modelo DeepSeek R1 para capacidades conversacionales avanzadas."
137
- )
138
 
139
  with st.sidebar:
140
  pdf_docs = st.file_uploader(
141
- "Sube tus archivos PDF:",
142
  accept_multiple_files=True,
143
  type=["pdf"]
144
  )
145
- if st.button("Enviar y Procesar"):
146
- with st.spinner("Procesando tus archivos..."):
147
  raw_text = get_pdf_text(pdf_docs)
148
  text_chunks = get_text_chunks(raw_text)
149
  get_vector_store(text_chunks)
150
- st.success("¡PDFs procesados e indexados exitosamente!")
151
 
152
- st.markdown(
153
- "### Haz Preguntas sobre tus Archivos PDF :mag:\n"
154
- "Una vez que subas y proceses tus PDFs, escribe tus preguntas a continuación."
155
- )
156
 
157
- user_question = st.text_input("Introduce tu pregunta:", placeholder="¿Qué quieres saber?")
158
 
159
  if user_question:
160
  with st.spinner("Obteniendo tu respuesta..."):
161
  user_input(user_question)
162
 
163
- st.sidebar.info(
164
- "**Nota:** Esta aplicación usa el modelo DeepSeek R1 para responder preguntas de manera precisa."
165
- )
166
-
167
  if __name__ == "__main__":
168
  main()
 
38
  def get_conversational_chain():
39
  """Configura una cadena conversacional usando el modelo Groq LLM."""
40
  prompt_template = """
41
+ Responde la pregunta en español de la manera más detallada posible a partir del contexto proporcionado. Si la respuesta no está en
42
  el contexto proporcionado, simplemente di, "la respuesta no está disponible en el contexto." No proporciones respuestas incorrectas.
43
 
44
  Contexto:
 
121
  color: white;
122
  }
123
  .stButton>button {
124
+ background-color: #0b0175;
125
  color: white;
126
  }
127
  </style>
 
129
  unsafe_allow_html=True
130
  )
131
 
132
+ st.title("PDF Consultor")
 
 
 
 
 
133
 
134
  with st.sidebar:
135
  pdf_docs = st.file_uploader(
136
+ "Subir archivo PDF",
137
  accept_multiple_files=True,
138
  type=["pdf"]
139
  )
140
+ if st.button("Procesar"):
141
+ with st.spinner("Procesando el archivo..."):
142
  raw_text = get_pdf_text(pdf_docs)
143
  text_chunks = get_text_chunks(raw_text)
144
  get_vector_store(text_chunks)
145
+ st.success("¡PDF procesado exitosamente!")
146
 
 
 
 
 
147
 
148
+ user_question = st.text_input("Introduce tu pregunta", placeholder="¿Qué quieres saber?")
149
 
150
  if user_question:
151
  with st.spinner("Obteniendo tu respuesta..."):
152
  user_input(user_question)
153
 
 
 
 
 
154
  if __name__ == "__main__":
155
  main()