Tomtom84 commited on
Commit
7673b85
·
verified ·
1 Parent(s): ac2e4ca

Update orpheus-tts/engine_class.py

Browse files
Files changed (1) hide show
  1. orpheus-tts/engine_class.py +18 -4
orpheus-tts/engine_class.py CHANGED
@@ -78,7 +78,7 @@ class OrpheusModel:
78
  gpu_memory_utilization=0.85,
79
  max_model_len=8192,
80
  trust_remote_code=True,
81
- enforce_eager=False, # Disable CUDA graphs for better compatibility
82
  **self.engine_kwargs
83
  )
84
 
@@ -101,6 +101,7 @@ class OrpheusModel:
101
  full_prompt = prompt
102
 
103
  # Kartoffel model format - exakt wie in der Referenz-Implementierung
 
104
 
105
  start_token = torch.tensor([[128259]], dtype=torch.int64)
106
  end_tokens = torch.tensor([[128009, 128260]], dtype=torch.int64)
@@ -114,11 +115,24 @@ class OrpheusModel:
114
  print(f"DEBUG KARTOFFEL: modified_input_ids shape: {modified_input_ids.shape}")
115
  print(f"DEBUG KARTOFFEL: modified_input_ids: {modified_input_ids[0].tolist()}")
116
 
117
- # Zurück zu Text dekodieren - EXAKT wie in der Referenz
118
  decoded_text = self.tokenizer.decode(modified_input_ids[0], skip_special_tokens=False)
119
- print(f"DEBUG KARTOFFEL: Final decoded prompt: '{decoded_text}'")
120
 
121
- return decoded_text
 
 
 
 
 
 
 
 
 
 
 
 
 
122
  else:
123
  # Original Orpheus format (für Canopy-Deutsch und English)
124
  if model_type == "smaller":
 
78
  gpu_memory_utilization=0.85,
79
  max_model_len=8192,
80
  trust_remote_code=True,
81
+ enforce_eager=True, # Disable CUDA graphs for better compatibility
82
  **self.engine_kwargs
83
  )
84
 
 
101
  full_prompt = prompt
102
 
103
  # Kartoffel model format - exakt wie in der Referenz-Implementierung
104
+ import torch
105
 
106
  start_token = torch.tensor([[128259]], dtype=torch.int64)
107
  end_tokens = torch.tensor([[128009, 128260]], dtype=torch.int64)
 
115
  print(f"DEBUG KARTOFFEL: modified_input_ids shape: {modified_input_ids.shape}")
116
  print(f"DEBUG KARTOFFEL: modified_input_ids: {modified_input_ids[0].tolist()}")
117
 
118
+ # Versuchen wir verschiedene Dekodierungsoptionen
119
  decoded_text = self.tokenizer.decode(modified_input_ids[0], skip_special_tokens=False)
120
+ print(f"DEBUG KARTOFFEL: Decoded with skip_special_tokens=False: '{decoded_text}'")
121
 
122
+ # Prüfen wir, ob die speziellen Tokens im Vokabular sind
123
+ special_tokens = ['<custom_token_3>', '<custom_token_4>', '<|begin_of_text|>', '<|eot_id|>']
124
+ for token in special_tokens:
125
+ if token in self.tokenizer.get_vocab():
126
+ print(f"DEBUG KARTOFFEL: Token '{token}' found in vocab with ID: {self.tokenizer.get_vocab()[token]}")
127
+ else:
128
+ print(f"DEBUG KARTOFFEL: Token '{token}' NOT found in vocab")
129
+
130
+ # Versuchen wir es mit dem einfachen Prompt ohne spezielle Tokens
131
+ # um zu sehen, ob vLLM überhaupt funktioniert
132
+ simple_prompt = full_prompt
133
+ print(f"DEBUG KARTOFFEL: Trying simple prompt without special tokens: '{simple_prompt}'")
134
+
135
+ return simple_prompt # Temporär: nur den einfachen Prompt verwenden
136
  else:
137
  # Original Orpheus format (für Canopy-Deutsch und English)
138
  if model_type == "smaller":