问题:在构建MediaPipe并与他们的示例iOS应用程序一起玩耍后,我很惊讶地看到我找不到任何综合材料,您可以从中学习如何使用他们的机器学习框架并将它们进一步整合到自定义iOS应用程序中。 问题:
我想念什么吗?有人可以提供对将其ML解决方案集成到iOS应用程序中的一些见解,以便在Swift中进一步在自定义用例中使用输出?我知道斗争。我们一直在使用MediaPipe来用于我们构建的一些应用程序,并且必须做很多工作以使其正常工作。因此,我们使用MediaPipe构建了一个用于姿势估算的SDK,它使集成变得更快。它称为
quickpose.ai.。 如果您正在寻找对象检测或MediaPipe的其他功能,则可能不是您想要的。很想知道您要使用MediaPipe和iOS做什么? 披露披露:我是QuickPose的联合创始人 这里是我包裹的快速包装。每当Google发布新版本时 IT允许您使用RAW MediaPipe Vision API,没有包装器,没有自以为是的API。 全部开源,您可以看到重新包装的建造方式。
与快速软件包集成在一起。到目前为止为我工作。不想自己保留它。 https://github.com/paescebu/swifttasksvision