TaraxaPulse commited on
Commit
6d1efe0
·
verified ·
1 Parent(s): 986c185

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +9 -6
app.py CHANGED
@@ -2,22 +2,24 @@ import gradio as gr
2
  from transformers import AutoModelForCausalLM, AutoTokenizer
3
  import torch
4
 
5
- # La ruta al modelo ahora apunta a tu repositorio en Hugging Face Hub
6
- model_path = "TaraxaPulse/asciiartgenerator"
 
7
 
8
- # Carga el tokenizador y el modelo preentrenados
9
  tokenizer = AutoTokenizer.from_pretrained(model_path)
10
  model = AutoModelForCausalLM.from_pretrained(model_path)
 
11
 
12
  def generate_ascii_art(prompt):
13
  """
14
- Genera arte ASCII a partir de un prompt de texto.
15
  """
16
  if not prompt:
17
  return "Por favor, introduce un prompt de texto."
18
 
19
  try:
20
- inputs = tokenizer(prompt, return_tensors="pt")
21
  outputs = model.generate(
22
  **inputs,
23
  max_length=200,
@@ -33,12 +35,13 @@ def generate_ascii_art(prompt):
33
  except Exception as e:
34
  return f"Error al generar el arte ASCII: {e}"
35
 
 
36
  demo = gr.Interface(
37
  fn=generate_ascii_art,
38
  inputs=gr.Text(label="Prompt"),
39
  outputs=gr.Text(label="ASCII Art"),
40
  title="Generador de ASCII Art para Taraxa Pulse",
41
- description="Escribe un prompt de texto para generar arte ASCII con tu propio modelo."
42
  )
43
 
44
  if __name__ == "__main__":
 
2
  from transformers import AutoModelForCausalLM, AutoTokenizer
3
  import torch
4
 
5
+ # Define la ruta al modelo de Hugging Face.
6
+ # Usa el nombre del modelo que me proporcionaste.
7
+ model_path = "AvaLovelace/LLaMA-ASCII-Art"
8
 
9
+ # Carga el tokenizador y el modelo desde el Hub
10
  tokenizer = AutoTokenizer.from_pretrained(model_path)
11
  model = AutoModelForCausalLM.from_pretrained(model_path)
12
+ model.to("cuda") # Asumiendo que tu Space tiene una GPU
13
 
14
  def generate_ascii_art(prompt):
15
  """
16
+ Genera arte ASCII a partir de un prompt de texto usando un modelo Llama.
17
  """
18
  if not prompt:
19
  return "Por favor, introduce un prompt de texto."
20
 
21
  try:
22
+ inputs = tokenizer(prompt, return_tensors="pt").to("cuda")
23
  outputs = model.generate(
24
  **inputs,
25
  max_length=200,
 
35
  except Exception as e:
36
  return f"Error al generar el arte ASCII: {e}"
37
 
38
+ # Configura la interfaz de Gradio
39
  demo = gr.Interface(
40
  fn=generate_ascii_art,
41
  inputs=gr.Text(label="Prompt"),
42
  outputs=gr.Text(label="ASCII Art"),
43
  title="Generador de ASCII Art para Taraxa Pulse",
44
+ description="Escribe un prompt para generar arte ASCII con un modelo Llama especializado."
45
  )
46
 
47
  if __name__ == "__main__":