ARKit是iOS 11.0中引入的Apple增强现实框架,它集成了iOS设备RGB相机数据和运动传感器数据,以产生强大的增强现实体验。
我在一个.rcproject文件(Pottery)中有2个场景,每个场景都是图像锚点类型,当检测到图像时,模型出现。我想添加手势与 3D 模型交互(potteryAnchor1.pot ...
如何自动将世界原点设置到地板上的新点并将 3D 模型系在那里
我想自动执行以下操作: (1)异步加载一个3D模型,比如50cm高的花瓶 (2) 检测地板上从世界原点垂直向下的点 P (init...
我一直在寻找一种使用命令行、Python、节点等将 .usdc / .usda / .usdz 文件转换为 .gltf 的方法...... 到目前为止,一直在研究每一个解决方案,可以找到一些 .gltf 到 .usd
在 SCNNode 上应用内置的 CIFilter 时,没有问题。 像这样: CIFilter *bloomFilter = [CIFilter bloomFilter]; [bloomFilter setValue: @(2) forKey: kCIInputIntensityKey]; [布卢姆菲尔...
如何使用 realitykit/ar kit 等快速将 AR 对象放置在真实世界的真实经度和纬度?
对不起,如果问题是基本的,我是一个新手。但我似乎找不到任何东西来完成我想要的。这是我当前的代码,它应该放置我正在生成的文本实体......
在 RealityKit 中查找特定模型的 findEntity(named:) 方法的替代方法?
所以几天前我问了一个问题,Andy Jazz 很好地回答了这个问题。所以我一直在研究答案,虽然我能够实施一个解决方案,但它是不完整的,因为遇到了......
如何在云端部署 Apple 的 Object Capture API
Apple Object Capture API 目前仅作为 MacOS API 提供。我希望在云中托管此 API,以便可以将其作为 REST API 进行访问。这样,我可以将图像从应用程序发送到我们的...
如何删除 iOS 16 中的 RoomPlan Debug Metal HUD?
问题: 控制台充满了调试数据,因此无法记录任何其他内容。 iPad 屏幕显示大量金属 HUD 视图,因此无法创建屏幕截图。 我有什么...
我从 Reality Composer 加载实体并添加自定义 CollisionShape。 这些是我遵循的步骤: // 我得到 `.reality` url 并加载模型 让 rocketSceneUrl = Bundle.main.url(forReso...
加载场景后,我在Reality Composer (.rcproject)中添加了带有动画的USDZ,并添加到评论中 我尝试安装旋转比例之类的手势......但不起作用 让ganGes = gangnim?。
如何从 Reality Composer 加载场景作为模型实体而不是普通实体?
我正在尝试从 Reality Composer 项目的场景中将实体加载到我的代码中。 我直接联系自动生成的 .reality 文件,因为我不希望它自动放置在...
我正在构建一个 RealityKit 应用程序,我想在动态模式下在我的场景中生成一个浮动对象,它不受重力的影响。它需要与其他物体碰撞,有质量...
我有这段代码可以从 ARKit 中的每一帧获取 X、Y、Z 位置。 让 CamPosition = SCNVector3(transform.m41, transform.m42, transform.m43) 我如何将数字四舍五入,因为它们出来了......
Xcode ARKit 项目:致命错误:在展开可选值时意外发现 nil
我注意到,当我尝试使用 Xcode 在 IOS 上创建 AR 项目时,即使我使用默认设置和默认项目 - 我也会收到这种“致命错误”: // //
只有 arView.scene.anchors 中第一个锚点的手势有效
我在 .rcproject 文件中有 2 个场景,每个场景都是图像锚点类型。我想添加手势以与 3D 模型(potteryAnchor.pot1 和 potteryNormalImageAnchor.pot1NormalImage)交互。然而...
我有一个基于 Apple 示例代码的测试应用程序。它将节点放入 3D 空间并测量它们之间的距离。这在 LiDAR 设备(iPhone12Pro 等)上运行良好。在 iPhone11 上(非
在 AR 化妆应用中使用 Google Mediapipe Face Mesh 实现口红效果
我正在使用 Google Mediapipe 的面部网格开发 AR 化妆应用程序。我面临着嘴唇和牙齿周围纹理坐标的问题,这使得创建逼真的嘴唇变得困难...
我用 RealityComposer 做了一个游戏。我如何在 Xcode 中使用这个文件?
我在 iOS 的 Reality Composer 中做了一个游戏。现在我想要一个可以使用 Xcode 运行我的 AR 游戏的应用程序。 我怎样才能做到这一点? 我尝试使用 Reality Kit 为 AR 生成 UI 并加载文件。 结构
我当前的代码库提供了 ARImageAnchor 相对于世界的方向(俯仰、偏航、滚动)。我想要实现的是获取与 n 相关的 ARImageAnchor 方向数据...
我有一个应用程序使用名为 Mercury.usdz 的 .usdz 文件我想在这里显示它: ARView(isARViewActive: $isARViewActive, planet: "Mercury") ARView 被定义为: 结构 ARView: