TaraxaPulse commited on
Commit
0245e2d
verified
1 Parent(s): 96a789c

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +19 -19
app.py CHANGED
@@ -1,45 +1,45 @@
1
  import gradio as gr
2
  from transformers import AutoModelForCausalLM, AutoTokenizer
 
3
  import torch
4
 
5
- # La ruta al modelo apunta al repositorio que me enviaste.
6
- model_path = "AvaLovelace/LLaMA-ASCII-Art"
7
 
8
- # Carga el tokenizador y el modelo preentrenados
9
- tokenizer = AutoTokenizer.from_pretrained(model_path)
10
- model = AutoModelForCausalLM.from_pretrained(model_path)
11
- model.to("cuda")
 
 
 
 
 
 
 
 
12
 
13
  def generate_ascii_art(prompt):
14
- """
15
- Genera arte ASCII a partir de un prompt de texto.
16
- """
17
  if not prompt:
18
  return "Por favor, introduce un prompt de texto."
19
 
20
  try:
21
- # Codificar el prompt
22
  inputs = tokenizer(prompt, return_tensors="pt").to("cuda")
23
-
24
- # Generar el texto con el modelo
25
  outputs = model.generate(
26
- **inputs,
27
- max_length=200,
28
- do_sample=True,
29
- top_k=50,
30
  top_p=0.95,
31
  temperature=0.7,
32
  num_return_sequences=1
33
  )
34
-
35
- # Decodificar el output del modelo y devolverlo como texto
36
  ascii_art = tokenizer.decode(outputs[0], skip_special_tokens=True)
37
  return ascii_art
38
 
39
  except Exception as e:
40
  return f"Error al generar el arte ASCII: {e}"
41
 
42
- # Configura la interfaz de Gradio
43
  demo = gr.Interface(
44
  fn=generate_ascii_art,
45
  inputs=gr.Text(label="Prompt"),
 
1
  import gradio as gr
2
  from transformers import AutoModelForCausalLM, AutoTokenizer
3
+ from peft import PeftModel
4
  import torch
5
 
6
+ # La ruta al modelo base que usaste para el entrenamiento
7
+ base_model_path = "meta-llama/Llama-2-7b-hf" # Es una suposici贸n, verifica cu谩l usaste
8
 
9
+ # La ruta a tu adaptador LoRA que subiste
10
+ adapter_path = "AvaLovelace/LLaMA-ASCII-Art"
11
+
12
+ # Carga el tokenizador y el modelo base
13
+ tokenizer = AutoTokenizer.from_pretrained(base_model_path)
14
+ model = AutoModelForCausalLM.from_pretrained(
15
+ base_model_path,
16
+ torch_dtype=torch.float16
17
+ ).to("cuda")
18
+
19
+ # Carga el adaptador LoRA en el modelo base
20
+ model = PeftModel.from_pretrained(model, adapter_path)
21
 
22
  def generate_ascii_art(prompt):
 
 
 
23
  if not prompt:
24
  return "Por favor, introduce un prompt de texto."
25
 
26
  try:
 
27
  inputs = tokenizer(prompt, return_tensors="pt").to("cuda")
 
 
28
  outputs = model.generate(
29
+ **inputs,
30
+ max_length=200,
31
+ do_sample=True,
32
+ top_k=50,
33
  top_p=0.95,
34
  temperature=0.7,
35
  num_return_sequences=1
36
  )
 
 
37
  ascii_art = tokenizer.decode(outputs[0], skip_special_tokens=True)
38
  return ascii_art
39
 
40
  except Exception as e:
41
  return f"Error al generar el arte ASCII: {e}"
42
 
 
43
  demo = gr.Interface(
44
  fn=generate_ascii_art,
45
  inputs=gr.Text(label="Prompt"),