10 月 13 日消息,苹果公司日前为旗下 Reality Composer 应用添加了名为“Object Capture”的“3D 捕捉”建模功能,即利用配有 LiDAR 传感器的设备,扫描场景进行物件建模。
官方宣称,即使是未接触过 3D 的用户,也可“直接在 AR 环境中轻松制作 AR 原型并带来 AR 体验”,利用 iPhone 或 iPad(iPhone 12 Pro 或后续机型以及 iPad Pro 第 5 代或后续机型)上先进的 LiDAR 传感器,即可“通过摄影测量技术和引导式捕捉流程”创建“高品质 3D 模型”。
利用一台搭载 LiDAR 传感器的 iPhone 14 Pro 进行测试,在点击“创建文稿”后,应用便会弹出“选择项目类型”页面,在此页面中,用户可以点击“Object Capture”进行模型创建(没有配备相关传感器的机型无此页面)。
进入创建页面后,应用要求用户将相关设备“靠近需要建模的物体”,此后用户需要手持相关设备,根据提示围绕物体围绕拍摄细节,在拍摄完成后,应用便会自动生成模型。
创建了多个模型进行测试,相比市面上例如“3D Scanner App”等同类扫描建模应用,苹果 Reality Composer 创建的 3D 模型质量较高,但仅能扫描直径介于 8cm 至 2m 之间的物体。
在创建模型后,用户还可以将模型以 USDZ 模式导出,并利用 AR 将相关模型放置于现实中进行观看。
苹果公司在今年推出了 Vision Pro 头显,其中一项特性便是允许用户将 USDZ 格式模式直接摆放在交互空间中,而当下 Reality Composer 推出了这一“拍照建模”功能,对于该头显的生态扩展及“趣味性提升”有一定的积极意义。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,所有文章均包含本声明。
最新评论