我正在尝试使用 OpenAI 的 Whisper 模型转录 MP3 文件,但transcriptions.create() 方法始终返回 None。我尝试了不同的 MP3 文件,将它们转换为 WAV,更新了 OpenAI 库,并添加了错误处理,但我仍然无法找出问题所在。
这是我的代码:
```from openai import OpenAI
client = OpenAI(
api_key = "MYAPIKEY"
)
audio_file = open("speech.mp3", "rb")
transcript = client.audio.transcriptions.create(
file=audio_file,
model="whisper-1",
response_format="verbose_json",
timestamp_granularities=["segment"]
)
print(transcript)```
我已确认:
API 密钥有效。 我正在使用 OpenAI Python 库版本 X.X.X。 我测试过 MP3 和 WAV 格式。 MP3 文件有效(使用 ffmpeg 检查)。 响应始终返回 None,没有任何异常。关于可能出什么问题的任何想法吗?
OpenAI Whisper 模型的最大文件大小为 25 MB,最大持续时间为 30 秒。检查音频文件,如果超过 25 MB,则将其分成块并发送。