TaraxaPulse commited on
Commit
c5c21de
·
verified ·
1 Parent(s): f5d6461

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +11 -7
app.py CHANGED
@@ -2,24 +2,26 @@ import gradio as gr
2
  from transformers import AutoModelForCausalLM, AutoTokenizer
3
  import torch
4
 
5
- # Define la ruta al modelo de Hugging Face.
6
- # Usa el nombre del modelo que me proporcionaste.
7
  model_path = "AvaLovelace/LLaMA-ASCII-Art"
8
 
9
- # Carga el tokenizador y el modelo desde el Hub
10
  tokenizer = AutoTokenizer.from_pretrained(model_path)
11
  model = AutoModelForCausalLM.from_pretrained(model_path)
12
- model.to("cuda") # Asumiendo que tu Space tiene una GPU
13
 
14
  def generate_ascii_art(prompt):
15
  """
16
- Genera arte ASCII a partir de un prompt de texto usando un modelo Llama.
17
  """
18
  if not prompt:
19
  return "Por favor, introduce un prompt de texto."
20
 
21
  try:
 
22
  inputs = tokenizer(prompt, return_tensors="pt").to("cuda")
 
 
23
  outputs = model.generate(
24
  **inputs,
25
  max_length=200,
@@ -29,19 +31,21 @@ def generate_ascii_art(prompt):
29
  temperature=0.7,
30
  num_return_sequences=1
31
  )
 
 
32
  ascii_art = tokenizer.decode(outputs[0], skip_special_tokens=True)
33
  return ascii_art
34
 
35
  except Exception as e:
36
  return f"Error al generar el arte ASCII: {e}"
37
 
38
- # Configura la interfaz de Gradio
39
  demo = gr.Interface(
40
  fn=generate_ascii_art,
41
  inputs=gr.Text(label="Prompt"),
42
  outputs=gr.Text(label="ASCII Art"),
43
  title="Generador de ASCII Art para Taraxa Pulse",
44
- description="Escribe un prompt para generar arte ASCII con un modelo Llama especializado."
45
  )
46
 
47
  if __name__ == "__main__":
 
2
  from transformers import AutoModelForCausalLM, AutoTokenizer
3
  import torch
4
 
5
+ # La ruta al modelo ahora apunta a tu repositorio en Hugging Face Hub
 
6
  model_path = "AvaLovelace/LLaMA-ASCII-Art"
7
 
8
+ # Carga el tokenizador y el modelo preentrenados
9
  tokenizer = AutoTokenizer.from_pretrained(model_path)
10
  model = AutoModelForCausalLM.from_pretrained(model_path)
11
+ model.to("cuda")
12
 
13
  def generate_ascii_art(prompt):
14
  """
15
+ Genera arte ASCII a partir de un prompt de texto.
16
  """
17
  if not prompt:
18
  return "Por favor, introduce un prompt de texto."
19
 
20
  try:
21
+ # Codificar el prompt
22
  inputs = tokenizer(prompt, return_tensors="pt").to("cuda")
23
+
24
+ # Generar el texto con el modelo
25
  outputs = model.generate(
26
  **inputs,
27
  max_length=200,
 
31
  temperature=0.7,
32
  num_return_sequences=1
33
  )
34
+
35
+ # Decodificar el output del modelo y devolverlo como texto
36
  ascii_art = tokenizer.decode(outputs[0], skip_special_tokens=True)
37
  return ascii_art
38
 
39
  except Exception as e:
40
  return f"Error al generar el arte ASCII: {e}"
41
 
42
+ # Configura la interfaz de Gradio con el endpoint correcto
43
  demo = gr.Interface(
44
  fn=generate_ascii_art,
45
  inputs=gr.Text(label="Prompt"),
46
  outputs=gr.Text(label="ASCII Art"),
47
  title="Generador de ASCII Art para Taraxa Pulse",
48
+ description="Escribe un prompt de texto para generar arte ASCII con un modelo Llama especializado."
49
  )
50
 
51
  if __name__ == "__main__":