import gradio as gr from transformers import AutoModelForCausalLM, AutoTokenizer import torch # La ruta al modelo apunta al repositorio que me enviaste. model_path = "AvaLovelace/LLaMA-ASCII-Art" # Carga el tokenizador y el modelo preentrenados tokenizer = AutoTokenizer.from_pretrained(model_path) model = AutoModelForCausalLM.from_pretrained(model_path) model.to("cuda") def generate_ascii_art(prompt): """ Genera arte ASCII a partir de un prompt de texto. """ if not prompt: return "Por favor, introduce un prompt de texto." try: # Codificar el prompt inputs = tokenizer(prompt, return_tensors="pt").to("cuda") # Generar el texto con el modelo outputs = model.generate( **inputs, max_length=200, do_sample=True, top_k=50, top_p=0.95, temperature=0.7, num_return_sequences=1 ) # Decodificar el output del modelo y devolverlo como texto ascii_art = tokenizer.decode(outputs[0], skip_special_tokens=True) return ascii_art except Exception as e: return f"Error al generar el arte ASCII: {e}" # Configura la interfaz de Gradio demo = gr.Interface( fn=generate_ascii_art, inputs=gr.Text(label="Prompt"), outputs=gr.Text(label="ASCII Art"), title="Generador de Arte ASCII para Taraxa Pulse", description="Escribe un prompt de texto para generar arte ASCII con un modelo Llama especializado." ) if __name__ == "__main__": demo.launch()