Spaces:
Running
Running
Update app.py
Browse files
app.py
CHANGED
@@ -14,12 +14,18 @@ def transcribe_audio(audio):
|
|
14 |
audio_data, sampling_rate = librosa.load(audio, sr=16000)
|
15 |
|
16 |
# WhisperProcessorに渡すために、音声データを正しい形式に変換
|
17 |
-
#
|
18 |
audio_input = processor(audio_data, return_tensors="pt", sampling_rate=16000)
|
19 |
|
20 |
-
#
|
21 |
-
|
22 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
23 |
# モデルによる文字起こし
|
24 |
with torch.no_grad():
|
25 |
predicted_ids = model.generate(input_values=input_values)
|
|
|
14 |
audio_data, sampling_rate = librosa.load(audio, sr=16000)
|
15 |
|
16 |
# WhisperProcessorに渡すために、音声データを正しい形式に変換
|
17 |
+
# 返された辞書を表示して出力形式を確認
|
18 |
audio_input = processor(audio_data, return_tensors="pt", sampling_rate=16000)
|
19 |
|
20 |
+
# 出力形式を確認
|
21 |
+
print(audio_input) # デバッグ: 出力形式を確認
|
22 |
+
|
23 |
+
# input_values ではなく、input_features を使用する場合もある
|
24 |
+
input_values = audio_input.get('input_values') or audio_input.get('input_features')
|
25 |
+
|
26 |
+
if input_values is None:
|
27 |
+
raise ValueError("音声データが適切に処理されていないか、必要なキーが見つかりませんでした")
|
28 |
+
|
29 |
# モデルによる文字起こし
|
30 |
with torch.no_grad():
|
31 |
predicted_ids = model.generate(input_values=input_values)
|