除了提供身临其境的体验外,苹果还表示 Vision Pro 将能够开箱即用地运行大多数 iPad 和 iOS 应用程序,而无需更改。对于 Zoom、Messenger、Discord 等视频聊天应用,该公司表示将向应用程序提供“数字化身网络摄像头”,使它们能够自动处理头显和其他设备之间的视频通话。
苹果表示,所有合适的 iOS 和 iPad OS 应用都将在头显的 App Store 上提供。据该公司称,“大多数应用程序根本不需要任何更改”,大多数应用程序应该开箱即用地在头显上运行。
对于 Zoom、Messenger、Discord、Google Meet 等视频会议应用,这些应用希望访问 iPhone 或 iPad 的前置摄像头,苹果为 Vision Pro 做了一些聪明的事情。
Vision Pro 提供的不是实时摄像头视图,而是提供头显计算机生成的用户化身视图(苹果称之为“数字角色”)。这意味着根据苹果现有指南构建的视频聊天应用应该可以在 Vision Pro 上运行,而无需对应用处理相机输入的方式进行任何更改。
Persona 使用 Vision Pro 的前置摄像头扫描用户的面部以创建模型,然后根据头显追踪的头部、眼睛和手部输入对模型进行动画处理。
该公司还证实,要求在 Apple Vision Pro 上访问后置摄像头的应用将只获得带有“无摄像头”符号的黑框。这会提醒用户没有可用的后置摄像头,但也意味着 iOS 和 iPad 应用将继续运行而不会出错,即使他们希望看到后置摄像头也是如此。
可能还有其他原因,像 Zoom、Messenger 或 Discord 这样的视频聊天应用可能无法立即与 Apple Vision Pro 配合使用,但至少就相机处理而言,开发人员应该很容易使用用户化身的视图来启动和运行视频聊天。
甚至有可能 Snapchat 和 Messenger 等应用中的“AR 面部过滤器”可以与用户的 Apple Vision Pro 化身正常工作,该应用程序实际上正在查看计算机生成的化身而不是真人。
开发人员最多可以期待来自头显的多输入方式(用户双手可作为输入方式),这意味着任何期望双指手势(如捏合缩放)的应用都应该可以正常工作,但头显无法使用三根手指或更多手指。至于需要位置信息的应用程序,苹果表示头显可以通过 Wi-Fi 定位大致位置,或通过用户的 iPhone 共享特定位置。
不幸的是,现有的 ARKit 应用在 Apple Vision Pro 上无法开箱即用,开发人员需要使用新升级的 ARKit(和其他工具)以使应用程序匹配兼容。