coreml 相关问题

Apple的Core ML框架和使用机器学习进行预测的工具。支持各种回归和分类模型,以及通用神经网络。

CoreML 模型在 MacOS 上正确预测,但在 iOS 上则不然

我使用 yolov8x 在 Ultralytics Hub 上训练了图像模型。然后,我通过在 Linux 机器上运行 yolo export model={model_url} format=coreml nms=true 将此模型转换为 best.mlpackage 文件...

回答 1 投票 0

如何从 CoreML 预测中获取置信度变量

我正在使用 CreateML 工具来训练文本分类器,当我使用预览功能并放入句子时,它会给我一个预测以及一个置信度变量 这是我如何使用

回答 1 投票 0

异步工作流程无法获得顺序渲染

我正在尝试使用 Core ML 模型推理来连续渲染屏幕截图。我在 WWDC 上读到过有关异步预测的内容,看起来它可以提高性能。我可以同步地做得很好

回答 1 投票 0

如何估算CoreML模型的参数数量?

我正在研究修剪对 CoreML 模型的影响。 虽然我可以轻松测量文件大小(以 kB 为单位)的变化,但我很难估计模型参数数量的变化...

回答 1 投票 0

如何估算CoreML模型的参数数量?

我正在研究修剪对 CoreML 模型的影响。 虽然我可以轻松测量文件大小(以 kB 为单位)的变化,但我很难估计模型参数数量的变化...

回答 1 投票 0

如何将 UIImage 转换为 CVPixelBuffer [重复]

Apple 的新 CoreML 框架具有采用 CVPixelBuffer 的预测函数。为了对 UIImage 进行分类,必须在两者之间进行转换。 我从 Apple Eng 获得的转换代码...

回答 1 投票 0

使用 CoreML 推断金属纹理子区域

我正在构建一个 iOS 应用程序,它将帧从相机实时渲染到金属纹理。我想使用 CoreML 对金属纹理的子区域执行样式转移(想象一下相机或...

回答 1 投票 0

将基于 Bert 的 PyTorch 模型导出到 CoreML。如何使 CoreML 模型适用于任何输入?

我使用下面的代码将基于 Bert 的 PyTorch 模型导出到 CoreML。 自从我用过 dummy_input = tokenizer("法国球迷", return_tensors="pt") CoreML 模型仅适用于...

回答 1 投票 0

对视频帧进行连续 Core ML 预测后出现内存泄漏

我开发了一个应用程序,它从 WebRTC 接收视频帧,调整它们的大小,然后使用 Core ML 模型进行预测。源视频帧采用 CVPixelBuffer 格式,像素格式为 420f,...

回答 1 投票 0

如何在 Core ML 的 MLMultiArray 中设置正确的步幅?跨步的价值观是什么意思?

如何在 Core ML 的 MLMultiArray 中设置正确的步幅?每一步的价值观是什么意思? 例如,假设一个Core ML模型输入形状为(1, 3, 1280, 720),那么创建时如何设置步幅

回答 1 投票 0

iOS CoreML mlmodel 文件自动生成 swift 版本的模型类文件

我正在为我当前的 objc 项目使用 CoreML。通常,.mlmodel 文件会自动生成一个 .h 文件,供我在视图控制器中导入模型类。但如果我导入一些快速文件...

回答 2 投票 0

如何修复此错误? (调用实例方法“预测”时没有完全匹配)

我正在努力将一个将图像输入集成到 Xcode 项目中的模型,但我遇到了一个错误:调用实例方法“预测”时没有完全匹配 导入 SwiftUI 我...

回答 1 投票 0

如何正确从 API 端点加载 JSON 数据作为 DataFrame

我正在开发一个 ML 模型来预测英超球队即将举行的比赛,并且我是以编程方式而不是通过 createML 应用程序来进行的。我在从 API 加载数据时遇到问题

回答 1 投票 0

如何将分词器从 Huggingface 转换器导出到 CoreML?

我从 Huggingface 转换器加载分词器和 Bert 模型,并将 Bert 模型导出到 CoreML: 从转换器导入 AutoTokenizer、AutoModelForTokenClassification 进口火炬 # 加载...

回答 1 投票 0

Xcode13/ SwiftUI:对象检测应用程序 iOS

我正在使用 SwiftUI/Xcode 构建一个对象检测应用程序,对于图像分类,我使用 Resnet50。但有一个错误。 [init() 已弃用][1]。我的代码是 如何解决这个问题。我是一个

回答 1 投票 0

从 VNGeneratePersonSegmentationRequest 返回的 CVPixelBuffer 中的值意味着什么?

我使用 Apple 的 Vision Framework 为用户提供的图像中找到的人物创建遮罩图像。我想分析 VNGeneratePersonSegmentationRequest 的结果来理解,因为

回答 1 投票 0

文本分类/从图像中提取如何使用 Core ML 从图像中获取单个文本框架和字符串

需要标记字符串周围的记录框,然后点击后获取该字符串

回答 1 投票 0

Vision CoreML 物体检测全屏横向

如何让我的 VNCoreMLRequest 检测出现在全屏视图中任何位置的对象? 我目前正在使用 Apple 示例项目进行早餐食品中的对象识别:BreakfastF...

回答 2 投票 0

将 Tensorflow 模型转换为 CoreML 模型时出错

NotImplementedError Traceback(最近一次调用最后一次) [19] 中的单元格,第 1 行 ----> 1 mlmodel = ct.convert(模型,convert_to =“mlmodel”,源=“tensorflow”)...

回答 1 投票 0

将 Tensorflow 模型导出到 CoreML 时出错

“顺序”对象没有属性“_get_save_spec” 将张量流导入为 tf 将 coremltools 导入为 ct 打印(tf.__版本__) # 加载现有的 Keras 模型 model_path =“/用户/名称/桌面/...

回答 1 投票 0

© www.soinside.com 2019 - 2024. All rights reserved.