Update orpheus-tts/engine_class.py
Browse files- orpheus-tts/engine_class.py +18 -4
orpheus-tts/engine_class.py
CHANGED
@@ -78,7 +78,7 @@ class OrpheusModel:
|
|
78 |
gpu_memory_utilization=0.85,
|
79 |
max_model_len=8192,
|
80 |
trust_remote_code=True,
|
81 |
-
enforce_eager=
|
82 |
**self.engine_kwargs
|
83 |
)
|
84 |
|
@@ -101,6 +101,7 @@ class OrpheusModel:
|
|
101 |
full_prompt = prompt
|
102 |
|
103 |
# Kartoffel model format - exakt wie in der Referenz-Implementierung
|
|
|
104 |
|
105 |
start_token = torch.tensor([[128259]], dtype=torch.int64)
|
106 |
end_tokens = torch.tensor([[128009, 128260]], dtype=torch.int64)
|
@@ -114,11 +115,24 @@ class OrpheusModel:
|
|
114 |
print(f"DEBUG KARTOFFEL: modified_input_ids shape: {modified_input_ids.shape}")
|
115 |
print(f"DEBUG KARTOFFEL: modified_input_ids: {modified_input_ids[0].tolist()}")
|
116 |
|
117 |
-
#
|
118 |
decoded_text = self.tokenizer.decode(modified_input_ids[0], skip_special_tokens=False)
|
119 |
-
print(f"DEBUG KARTOFFEL:
|
120 |
|
121 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
122 |
else:
|
123 |
# Original Orpheus format (für Canopy-Deutsch und English)
|
124 |
if model_type == "smaller":
|
|
|
78 |
gpu_memory_utilization=0.85,
|
79 |
max_model_len=8192,
|
80 |
trust_remote_code=True,
|
81 |
+
enforce_eager=True, # Disable CUDA graphs for better compatibility
|
82 |
**self.engine_kwargs
|
83 |
)
|
84 |
|
|
|
101 |
full_prompt = prompt
|
102 |
|
103 |
# Kartoffel model format - exakt wie in der Referenz-Implementierung
|
104 |
+
import torch
|
105 |
|
106 |
start_token = torch.tensor([[128259]], dtype=torch.int64)
|
107 |
end_tokens = torch.tensor([[128009, 128260]], dtype=torch.int64)
|
|
|
115 |
print(f"DEBUG KARTOFFEL: modified_input_ids shape: {modified_input_ids.shape}")
|
116 |
print(f"DEBUG KARTOFFEL: modified_input_ids: {modified_input_ids[0].tolist()}")
|
117 |
|
118 |
+
# Versuchen wir verschiedene Dekodierungsoptionen
|
119 |
decoded_text = self.tokenizer.decode(modified_input_ids[0], skip_special_tokens=False)
|
120 |
+
print(f"DEBUG KARTOFFEL: Decoded with skip_special_tokens=False: '{decoded_text}'")
|
121 |
|
122 |
+
# Prüfen wir, ob die speziellen Tokens im Vokabular sind
|
123 |
+
special_tokens = ['<custom_token_3>', '<custom_token_4>', '<|begin_of_text|>', '<|eot_id|>']
|
124 |
+
for token in special_tokens:
|
125 |
+
if token in self.tokenizer.get_vocab():
|
126 |
+
print(f"DEBUG KARTOFFEL: Token '{token}' found in vocab with ID: {self.tokenizer.get_vocab()[token]}")
|
127 |
+
else:
|
128 |
+
print(f"DEBUG KARTOFFEL: Token '{token}' NOT found in vocab")
|
129 |
+
|
130 |
+
# Versuchen wir es mit dem einfachen Prompt ohne spezielle Tokens
|
131 |
+
# um zu sehen, ob vLLM überhaupt funktioniert
|
132 |
+
simple_prompt = full_prompt
|
133 |
+
print(f"DEBUG KARTOFFEL: Trying simple prompt without special tokens: '{simple_prompt}'")
|
134 |
+
|
135 |
+
return simple_prompt # Temporär: nur den einfachen Prompt verwenden
|
136 |
else:
|
137 |
# Original Orpheus format (für Canopy-Deutsch und English)
|
138 |
if model_type == "smaller":
|