File size: 1,273 Bytes
f4bf523 b9925d0 f4bf523 b9925d0 f4bf523 b9925d0 f4bf523 b9925d0 f4bf523 b9925d0 f4bf523 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 |
import gradio as gr
from transformers import pipeline
# Pipeline de generación genérica que acepta prompts
generador = pipeline("text-generation", model="IIC/MEL", trust_remote_code=True)
def procesar_tarea(archivos, prompt):
if not prompt:
return "", "Debes escribir un prompt"
texto = ""
for f in archivos:
try:
texto += f.read().decode("utf‑8") + "\n\n"
except:
texto += ""
entrada = prompt + "\n\n" + texto
salida = generador(entrada, max_new_tokens=512, do_sample=False)
respuesta = salida[0].get("generated_text", "")
return respuesta, respuesta
demo = gr.Interface(
fn=procesar_tarea,
inputs=[
gr.File(label="Sube documentos (.txt, .md, .pdf)", file_count="multiple", type="file"),
gr.Textbox(label="Prompt (instrucción)", lines=3, placeholder="Ej. Resume este texto, explica esto...")
],
outputs=[
gr.Textbox(label="Resultado (para copiar)", lines=10),
gr.File(label="Descargar resultado", file_name="resultado.txt")
],
title="Interfaz MEL con Gradio",
description="Sube tus documentos, escribe un prompt y recibe la salida generada. Puedes copiar el texto o descargarlo."
)
if __name__ == "__main__":
demo.launch()
|