我正在使用 iOS 17 中的新语音识别 API,并且在 SFSpeechLanguageModel.prepareCustomLanguageModel 和 SFSpeechLanguageModel.Configuration 中使用 URL 时遇到了一些困惑。
在 SFSpeechLanguageModel.Configuration 初始化程序中,我提供了一个指向自定义语言模型 .bin 文件的 URL。但是,prepareCustomLanguageModel 方法中还有一个 URL 参数。我不清楚第二个 URL 的用途以及它与配置中的 URL 有何不同。
更令人困惑的是,这些新 API 的文档目前尚未完全充实。我尝试将两个 .bin 文件(用于自定义语言模型和用于prepareCustomLanguageModel 的文件)注入到同一个 URL 中,但结果并未阐明它们的不同作用。
在我进行的实验中,我检查了带有和不带有自定义语言模型 .bin 文件的同一音频文件中已识别短语的置信度。令人惊讶的是,两种情况下的置信水平保持相同,这让我怀疑自定义模型是否被正确使用。
是否有其他人使用过这些新 API,并可以提供以下方面的说明:
SFSpeechLanguageModel.Configuration 和prepareCustomLanguageModel 中URL 的不同角色。 为什么使用自定义语言模型时置信水平可能没有明显差异。 如果您对 iOS 17 语音识别 API 的这些新方面有任何见解或经验,我们将不胜感激。
显然有一个 Apple example 项目有点误导,它声明它是 iOS 12+,但它适用于最新的 API。
示例项目包含与 WWDC 不同的代码 - 这就是它不起作用的原因