Spaces:
Runtime error
Runtime error
File size: 1,501 Bytes
bb36431 6d1efe0 bb36431 6d1efe0 bb36431 6d1efe0 bb36431 6d1efe0 bb36431 6d1efe0 bb36431 6d1efe0 bb36431 6d1efe0 bb36431 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 |
import gradio as gr
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
# Define la ruta al modelo de Hugging Face.
# Usa el nombre del modelo que me proporcionaste.
model_path = "AvaLovelace/LLaMA-ASCII-Art"
# Carga el tokenizador y el modelo desde el Hub
tokenizer = AutoTokenizer.from_pretrained(model_path)
model = AutoModelForCausalLM.from_pretrained(model_path)
model.to("cuda") # Asumiendo que tu Space tiene una GPU
def generate_ascii_art(prompt):
"""
Genera arte ASCII a partir de un prompt de texto usando un modelo Llama.
"""
if not prompt:
return "Por favor, introduce un prompt de texto."
try:
inputs = tokenizer(prompt, return_tensors="pt").to("cuda")
outputs = model.generate(
**inputs,
max_length=200,
do_sample=True,
top_k=50,
top_p=0.95,
temperature=0.7,
num_return_sequences=1
)
ascii_art = tokenizer.decode(outputs[0], skip_special_tokens=True)
return ascii_art
except Exception as e:
return f"Error al generar el arte ASCII: {e}"
# Configura la interfaz de Gradio
demo = gr.Interface(
fn=generate_ascii_art,
inputs=gr.Text(label="Prompt"),
outputs=gr.Text(label="ASCII Art"),
title="Generador de ASCII Art para Taraxa Pulse",
description="Escribe un prompt para generar arte ASCII con un modelo Llama especializado."
)
if __name__ == "__main__":
demo.launch() |