import gradio as gr from transformers import AutoModelForCausalLM, AutoTokenizer import torch # Define la ruta al modelo de Hugging Face. # Usa el nombre del modelo que me proporcionaste. model_path = "AvaLovelace/LLaMA-ASCII-Art" # Carga el tokenizador y el modelo desde el Hub tokenizer = AutoTokenizer.from_pretrained(model_path) model = AutoModelForCausalLM.from_pretrained(model_path) model.to("cuda") # Asumiendo que tu Space tiene una GPU def generate_ascii_art(prompt): """ Genera arte ASCII a partir de un prompt de texto usando un modelo Llama. """ if not prompt: return "Por favor, introduce un prompt de texto." try: inputs = tokenizer(prompt, return_tensors="pt").to("cuda") outputs = model.generate( **inputs, max_length=200, do_sample=True, top_k=50, top_p=0.95, temperature=0.7, num_return_sequences=1 ) ascii_art = tokenizer.decode(outputs[0], skip_special_tokens=True) return ascii_art except Exception as e: return f"Error al generar el arte ASCII: {e}" # Configura la interfaz de Gradio demo = gr.Interface( fn=generate_ascii_art, inputs=gr.Text(label="Prompt"), outputs=gr.Text(label="ASCII Art"), title="Generador de ASCII Art para Taraxa Pulse", description="Escribe un prompt para generar arte ASCII con un modelo Llama especializado." ) if __name__ == "__main__": demo.launch()