import gradio as gr from transformers import AutoModelForCausalLM, AutoTokenizer import torch # La ruta al modelo ahora apunta a tu repositorio en Hugging Face Hub model_path = "TaraxaPulse/asciiartgenerator" # Carga el tokenizador y el modelo preentrenados tokenizer = AutoTokenizer.from_pretrained(model_path) model = AutoModelForCausalLM.from_pretrained(model_path) def generate_ascii_art(prompt): """ Genera arte ASCII a partir de un prompt de texto. """ if not prompt: return "Por favor, introduce un prompt de texto." try: inputs = tokenizer(prompt, return_tensors="pt") outputs = model.generate( **inputs, max_length=200, do_sample=True, top_k=50, top_p=0.95, temperature=0.7, num_return_sequences=1 ) ascii_art = tokenizer.decode(outputs[0], skip_special_tokens=True) return ascii_art except Exception as e: return f"Error al generar el arte ASCII: {e}" demo = gr.Interface( fn=generate_ascii_art, inputs=gr.Text(label="Prompt"), outputs=gr.Text(label="ASCII Art"), title="Generador de ASCII Art para Taraxa Pulse", description="Escribe un prompt de texto para generar arte ASCII con tu propio modelo." ) if __name__ == "__main__": demo.launch()