Spaces:
Sleeping
Sleeping
File size: 1,143 Bytes
093162a 446d2fd f68f2c5 ff48396 a6341df ff48396 a6341df 048a8c5 06c02ed ff48396 048a8c5 b01ef58 ff48396 37dbded 048a8c5 ff48396 37dbded ff48396 37dbded ff48396 a6341df 37dbded a6341df 5906ce7 37dbded |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 |
import os
import gradio as gr
import google.generativeai as genai
from dotenv import load_dotenv
# Cargar variables de entorno
load_dotenv()
# Configurar la API de Google
genai.configure(api_key=os.getenv("GOOGLE_API_KEY"))
# Modelo de IA de Gemini
model = genai.GenerativeModel("gemini-2.0-flash")
def chat(message, history):
"""Envía el mensaje del usuario a Gemini con historial y devuelve la respuesta."""
try:
# Convertir historial a formato adecuado para Gemini
chat_history = [{"role": "user", "parts": [msg[0]]} for msg in history] + [{"role": "user", "parts": [message]}]
# Enviar el historial y el mensaje actual a Gemini
response = model.generate_content(chat_history)
return response.text # Devuelve solo el texto de la respuesta
except Exception as e:
return f"Error: {e}"
# Crear la interfaz de chat con historial
demo = gr.ChatInterface(
fn=chat,
examples=["Write an example Python lambda function."],
title="Gemini Chatbot",
description="Chatbot interactivo con historial de conversación usando Gemini AI."
)
# Iniciar la app
demo.launch()
|