在OSX Mavericks中,现在包括语音说法,非常有用。我正在尝试使用听写能力来创建自己的数字生活助手,但是我找不到如何使用识别功能在应用程序中获得演讲而不是文本框。
我已经研究了NsspeechRognizer,但这似乎是针对以预定义的语法而不是命令来编程可说的命令的。我使用哪种编程语言都没关系,但是Python或Java会很好...感谢您的帮助!
SfspeechRecognizer(mirror)(需要MACOS10.15+):这是用于语音识别的。
在现场或预先录制的音频上表达语音识别,接收抄写,替代解释和结果的信心水平。正如您在问题中所指出的那样,whereas确实提供了语音识别系统的“命令和控制”样式(必须在聆听之前定义命令短语,而与公认的识别系统相比,必须定义命令短语文字不受约束)(从
Https://developer.apple.com/videos/play/wwdc2019/256/
mirror):
Another方法是直接使用MAC的命令,但据我所知,唯一的方法是RerDirect Audio feed,这不是很整洁,例如请参阅http://www.showcasemarketing.com/ideablog/transcribe-mp3-audio-to-text-mac-os/(mirror
)update(2025-02-10):https://superwhisper.com/具有出色的语音识别精度。