Soph-IA / app.py
jeysshon's picture
Update app.py
c0347bb verified
raw
history blame
3.54 kB
import streamlit as st
from PIL import Image
import speech_recognition as sr
import google.generativeai as genai
from gtts import gTTS
import io
# Configuración de la página de Streamlit
st.set_page_config(layout="wide")
# Configuración de la API key para Google Generative AI
api_key = "AIzaSyDJZ3r6VRhRivR0pb96cBRg_VvGg_fXq5k" # API key proporcionada
def procesar_texto(texto):
genai.configure(api_key=api_key)
modelo = genai.GenerativeModel('gemini-1.5-pro-latest')
respuesta = modelo.generate_content(texto)
return respuesta.text
def procesar_imagen(imagen):
genai.configure(api_key=api_key)
modelo = genai.GenerativeModel('gemini-1.5-pro-latest')
respuesta = modelo.generate_content(imagen.name) # Puedes ajustar esto si la API espera contenido de imagen real
return respuesta.text
def reconocer_voz_desde_archivo(archivo_audio):
reconocedor = sr.Recognizer()
with sr.AudioFile(archivo_audio) as fuente:
audio = reconocedor.record(fuente)
try:
texto = reconocedor.recognize_google(audio)
return texto
except sr.UnknownValueError:
return "El reconocimiento de voz de Google no pudo entender el audio"
except sr.RequestError as e:
return f"No se pudieron solicitar resultados del servicio de reconocimiento de voz de Google; {e}"
def hablar_texto(texto):
tts = gTTS(text=texto, lang='es')
archivo_audio = io.BytesIO()
tts.write_to_fp(archivo_audio)
archivo_audio.seek(0)
st.audio(archivo_audio, format="audio/mp3")
st.title("🤖 ChatBot")
espacio_contenido_generado = st.empty()
# Cargar y aplicar CSS personalizado
with open("./style.css") as f:
st.markdown(f"<style>{f.read()}</style>", unsafe_allow_html=True)
# Contenido principal
col1, col2 = st.columns([1, 3])
with col1:
tipo_entrada = st.selectbox("Selecciona el tipo de entrada", ["Haz una pregunta❓", "🖼️ Subir imagen", "🎤 Subir archivo de audio"])
with col2:
if tipo_entrada == "Haz una pregunta❓":
entrada_texto = st.text_input("Ingresa tu pregunta aquí")
if entrada_texto:
with st.spinner("Generando respuesta..."):
resultado = procesar_texto(entrada_texto)
espacio_contenido_generado.write(resultado)
if st.button("🔊 Hablar", key="hablar_entrada_texto"):
hablar_texto(resultado)
elif tipo_entrada == "🖼️ Subir imagen":
entrada_imagen = st.file_uploader("Sube una imagen", type=["jpg", "png", "jpeg"])
if entrada_imagen:
imagen = Image.open(entrada_imagen)
st.image(imagen, caption='Imagen subida.', use_column_width=True)
with st.spinner("Procesando imagen..."):
respuesta = procesar_imagen(entrada_imagen)
espacio_contenido_generado.write(respuesta)
elif tipo_entrada == "🎤 Subir archivo de audio":
archivo_audio = st.file_uploader("Sube un archivo de audio", type=["wav", "mp3"])
if archivo_audio:
with st.spinner("Procesando audio..."):
texto_de_voz = reconocer_voz_desde_archivo(archivo_audio)
st.text_input("Texto reconocido", value=texto_de_voz)
if texto_de_voz:
with st.spinner("Generando respuesta..."):
resultado = procesar_texto(texto_de_voz)
espacio_contenido_generado.write(resultado)
if st.button("🔊 Hablar", key="hablar_entrada_audio"):
hablar_texto(resultado)