soiz commited on
Commit
1a83c9e
·
verified ·
1 Parent(s): 026aeab

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +10 -4
app.py CHANGED
@@ -14,12 +14,18 @@ def transcribe_audio(audio):
14
  audio_data, sampling_rate = librosa.load(audio, sr=16000)
15
 
16
  # WhisperProcessorに渡すために、音声データを正しい形式に変換
17
- # 返された辞書からinput_valuesを直接取得する
18
  audio_input = processor(audio_data, return_tensors="pt", sampling_rate=16000)
19
 
20
- # WhisperProcessorの出力にはinput_valuesが含まれるので、正しい属性にアクセス
21
- input_values = audio_input['input_values']
22
-
 
 
 
 
 
 
23
  # モデルによる文字起こし
24
  with torch.no_grad():
25
  predicted_ids = model.generate(input_values=input_values)
 
14
  audio_data, sampling_rate = librosa.load(audio, sr=16000)
15
 
16
  # WhisperProcessorに渡すために、音声データを正しい形式に変換
17
+ # 返された辞書を表示して出力形式を確認
18
  audio_input = processor(audio_data, return_tensors="pt", sampling_rate=16000)
19
 
20
+ # 出力形式を確認
21
+ print(audio_input) # デバッグ: 出力形式を確認
22
+
23
+ # input_values ではなく、input_features を使用する場合もある
24
+ input_values = audio_input.get('input_values') or audio_input.get('input_features')
25
+
26
+ if input_values is None:
27
+ raise ValueError("音声データが適切に処理されていないか、必要なキーが見つかりませんでした")
28
+
29
  # モデルによる文字起こし
30
  with torch.no_grad():
31
  predicted_ids = model.generate(input_values=input_values)