我是 CoreMl 的新手,并遵循 Classifying Images with Vision and Core ML 的说明。我在使用模型 (MobileNetV2) 时遇到了一个问题,给出了来自上一个链接的代码,我没有遇到任何问题。当我尝试使用我自己使用 CoreML 创建的模型时,我遇到了问题,在使用 iPhone 模拟器时,本地化描述是“Could not create inference context”。
- some : Error Domain=com.apple.vis Code=9 "Could not create inference context" UserInfo={NSLocalizedDescription=Could not create inference context}
根据 Apple 文档:
Core ML 通过利用 CPU、GPU 和神经引擎优化设备性能,同时最大限度地减少内存占用和功耗。
您看到Could not create inference context error because Neural Engine is not supported in the simulator.
您只能将 CPU 用于模拟器中的 VNRequest。
#if targetEnvironment(simulator)
request.usesCPUOnly = true
#endif