Apple的Core ML框架和使用机器学习进行预测的工具。支持各种回归和分类模型,以及通用神经网络。
我正在尝试制作一个应用程序游乐场,将照片分类为苹果或橙色。我有一个名为“AppleOrange.mlmodel”的模型文件,它是为此训练的。但是我无法加载模型...
我想为我正在制作的测验应用程序(适用于 iPhone)制作一个 ML 模型。 该模型应该向玩家建议他最有可能回答正确的问题。 我已经制作了一个 JSON 文件...
我是 CoreMl 的新手,并遵循使用 Vision 和 Core ML 对图像进行分类的说明。我在使用模型(MobileNetV2)时遇到了一个问题,给出了上一个链接的代码,我没有...
TorchScript 需要源代码访问才能对 collections.deque 进行编译
我正在尝试将 PyTorch FOMM 模型转换为 TorchScript。一旦我开始使用 @torch.jit.script 注释一些类,我就遇到了一个错误: OSError:无法获取 的源代码 我正在尝试将 PyTorch FOMM 模型转换为 TorchScript。一旦我开始用@torch.jit.script注释一些类,我就得到了一个错误: OSError: Can't get source for <class 'collections.deque'>. TorchScript requires source access in order to carry out compilation, make sure original .py files are available. 据我所知,在 CPython 中实现的类因此不能被 TorchScript 编译器读取。我没有找到任何纯 Python 实现。我怎样才能克服这个问题? 这是我要注释的课程: import queue import collections import threading import torch @torch.jit.script class SyncMaster(object): """An abstract `SyncMaster` object. - During the replication, as the data parallel will trigger an callback of each module, all slave devices should call `register(id)` and obtain an `SlavePipe` to communicate with the master. - During the forward pass, master device invokes `run_master`, all messages from slave devices will be collected, and passed to a registered callback. - After receiving the messages, the master device should gather the information and determine to message passed back to each slave devices. """ def __init__(self, master_callback): """ Args: master_callback: a callback to be invoked after having collected messages from slave devices. """ self._master_callback = master_callback self._queue = queue.Queue() self._registry = collections.OrderedDict() self._activated = False def __getstate__(self): return {'master_callback': self._master_callback} def __setstate__(self, state): self.__init__(state['master_callback']) def register_slave(self, identifier): """ Register an slave device. Args: identifier: an identifier, usually is the device id. Returns: a `SlavePipe` object which can be used to communicate with the master device. """ if self._activated: assert self._queue.empty(), 'Queue is not clean before next initialization.' self._activated = False self._registry.clear() future = FutureResult() self._registry[identifier] = _MasterRegistry(future) return SlavePipe(identifier, self._queue, future) def run_master(self, master_msg): """ Main entry for the master device in each forward pass. The messages were first collected from each devices (including the master device), and then an callback will be invoked to compute the message to be sent back to each devices (including the master device). Args: master_msg: the message that the master want to send to itself. This will be placed as the first message when calling `master_callback`. For detailed usage, see `_SynchronizedBatchNorm` for an example. Returns: the message to be sent back to the master device. """ self._activated = True intermediates = [(0, master_msg)] for i in range(self.nr_slaves): intermediates.append(self._queue.get()) results = self._master_callback(intermediates) assert results[0][0] == 0, 'The first result should belongs to the master.' for i, res in results: if i == 0: continue self._registry[i].result.put(res) for i in range(self.nr_slaves): assert self._queue.get() is True return results[0][1] @property def nr_slaves(self): return len(self._registry) 将 TorchScript 生成方法从 torch.jit.script 切换到 torch.jit.trace 并且它有效,不需要注释任何东西。或者torch.onnx.export有时工作。 我在尝试在使用 torch 的 Python 脚本上使用 PyInstaller 时遇到了这个问题。我按照这个Github线程中的步骤3将标签更改为@torch.jit._script_if_tracing在modeling_deberta.py中。 (请注意,在 Github 的回答中,git clone 中有一个错字,其中说的是“变形金刚”而不是“变形金刚”,并且文件路径略有不同:src/transformers/models/deberta/modeling_deberta.py。我也在modeling_deberta_v2.py 中做到了为了安全。)
无法加载模型,使用 Xcode 或 `MLModel.compileModel(at:)` 编译模型。 SwiftUI 稳定扩散
我正在尝试使用 SwiftUI 应用程序在装有 MacOS Ventura 13.2.1 的 M2 pro mac 上运行 Stable Diffusion 的 CoreML 模型。我已经从 Hugging Face Hub 下载了 Core ML 稳定扩散模型,并且...
如何从已转换为 CoreML 模型的 YolovV5 对象检测模型中提取边界框坐标以用于 iOS 应用程序?
这是我的coreMl模型预测 我需要这样的东西, 我需要这样的预测 我试过出口 !python export.py --weights /content/drive/MyDrive/best.pt --include "c...
CoreML 错误:“图像不是预期类型 32BGRA 或 32ARGB”
我使用基于 YOLO 的检测器,输出上带有 NMS。如果我直接使用 CoreML,我会得到这个错误: 图像不是预期类型 32BGRA 或 32ARGB,而是不受支持 (875704422) 调用代码看起来像...
我正在尝试向我的应用程序添加选项,以在使用 Apple 的 Vision 框架识别文本时允许使用不同的语言。 似乎有一个以编程方式返回
在 Apple Vision Framework 中是否可以比较人脸并识别该人是否在与该人的参考图像相比的图片中? 像 Facebook 人脸识别之类的东西。
我有一个 swiftui 视图,显示用户从照片应用程序中选择的图片,并在图片下方显示一些文本。我想根据
我想用 create ML 创建一个图像分类器。 但是,当我构建时,出现此错误。 目标和路径是正确的,但我不知道为什么会出现此错误。 试图设置路径
我已经训练模型从图像中识别矩形。我工作得很好,但只有特定的图像(因为我认为取决于特定的长宽比)。例如:有效的例子输入图像......。
我的xcode项目中有多个.mlModels,我想让用户选择模型并进行预测,让gestureClassifier = GestureClassifier() /mlModel func predictGesture(window: Int) { ....
为什么我事先训练好的mlmodel在对象识别上出了这么大的问题?
最近,我想看看CoreML和CreateML,所以我创建了简单的应用程序与对象识别。我只为香蕉和胡萝卜创建了模型(只是为了尝试).我使用了超过60张图片来训练我的...
对于上下文,我正在做一个人脸识别模型,它将采取120张学生用户的图像,并将它们转换成MLMultiArray,这是一个Float32 1 x 120矩阵。我面临的问题是,我 ...
我有一个大的Float32向量,长度为15360值。样本: [14.78125,-0.6308594,5.609375,13.57812,-1.871094,-19.65625,9.5625,8.640625,-2.728516,3.654297,-3.189453,-1.740234...] 有什么办法...
我读到可以将TensorFlow模型(.bb)文件转换为CoreML(.mlmodel)在iOS平台上运行。但是我有一些.mlmodel文件,我想在tensorflow上运行。(我没有MAC)...。
将一个大的[MLMultiArray]分割成较小的块[[MLMultiArray]]?
我有一个大的MLMultiArray,长度为15360个值。样品。Float32 1 x 15360 [14.78125,-0.6308594,5.609375,13.57812,-1.871094,-19.65625,9.5625,8.640625,-2.728516,3.654297,-3.189453,-1.740234...] 。...
将MLMultiArray转换为图像或OpenGL金属纹理。
我想用CoreML对一段直播视频进行背景分割。我使用了苹果提供的DeepLabV3。虽然处理一张513x513的图像已经需要100毫秒,但这个模型还算正常。然后我 ...
当应用中不再需要CoreML时,如何停止CoreML的运行?
我的应用在CoreML模型上运行Vision。机器学习模型运行的相机帧来自ARKit sceneView(基本上是相机)。我有一个叫做loopCoreMLUpdate()的方法, ...