数字制作的另类现实可能令人兴奋或令人不安,这取决于您如何设想它们。但苹果公司和其他投资 AR 和 VR 主导未来的公司一样,显然希望你关注光明的一面。这就是为什么苹果在WWDC 2023开发者大会上花费了大量时间来强调Apple Vision Pro (苹果奢华的新型混合现实耳机)的各种功能。
正如苹果公司在活动中坚定的叙述那样,Vision Pro 将我们带入了计算的新时代,并突破了固定显示器的界限。宣传演练很容易让我们相信这款耳机在视觉和功能上在很多方面都是独一无二的。
从允许您通过分布在周围空间中的无数屏幕来扩展您的工作流程,到让自己沉浸在超现实的自然门户中,该耳机具有许多令人着迷的功能。我们当然希望它的一些功能能够应用到其他设备上,尤其是 iPhone。
Apple 的新 FaceTime 头像看起来令人难以置信
Vision Pro 据称可以无缝地融合真实和想象的场景,这可以说服人类思维真正忘记物理和虚拟领域之间的界限。这是通过虚拟元素实现的,这些元素不会直接漂浮在您的物理空间中,但也会增强您的物理环境。其中一种方法是让微小的细节(例如浮动窗口的阴影)投射到周围现实世界的物体上。
苹果公司让非用户感到惊讶(以及困惑)的另一种方式是在 FaceTime 中使用虚拟化身。通过这款耳机,苹果公司正在迎接“空间 FaceTime”的新时代,每个参与者的视频都将出现在与 Vision Pro 用户的真实环境融为一体的窗口中。但另一边的人不会看到你被头套包裹着的脸。
相反,Vision Pro 将创造出巧妙逼真的用户虚拟形象,同时又令人感到奇怪的不安。这些头像代替实际视图显示,并由耳机上的两个 TrueDepth 摄像头创建。值得注意的是,TrueDepth 摄像头是最初在 iPhone X 上引入的独特摄像头系统。它由红外泛光照明器、点投影仪和红外摄像头组成。所有这三个系统结合在一起,可以帮助创建用户脸部的 3D 地图,该地图可用于使用 Face ID 解锁 iPhone。
头像将复制您的面部表情、眼球运动和手势,使其显得更加自然。这解决了在使用 FaceTime 时不断将 iPhone 握在手中或面对 Mac 屏幕的问题,或者看起来像疯狂的科技爱好者,在尝试最新的小工具时喜欢保持精神错乱。
对于苹果来说,这也是吸引更多人接受其新兴的空间计算理念的切实途径——如果不是出于其他原因,而是为了避免害怕错过机会 (FOMO)。但除了说服现有的苹果用户花 3,500 美元购买一项新兴技术之外,苹果还有另一种方法可以让这些超现实的化身感觉更常见——将它们带到 iPhone 和 iPad 上。
它们不应该是 Vision Pro 独有的
虚拟 FaceTime 头像适用于其他 Apple 设备以及 Vision Pro 是有充分理由的。
首先,将空间 FaceTime 引入所有设备符合苹果提出的“空间计算”新时代。直到增强现实完全取代与计算机的其他交互,特别是取代我们心爱的智能手机的有形未来之前,苹果可以利用这个机会提高人们对这项技术的熟悉程度。
除了符合消除现实和虚拟世界之间的界限之外,提供空间化的 FaceTime 体验也符合 Apple 的生态系统原则,在该生态系统中,所有设备(至少是顶级设备)的工作方式相似且彼此一致。著名分析师郭明池也肯定了 Vision Pro 与苹果生态系统内其他设备之间建立和谐的必要性,并称这对于耳机的初步成功至关重要。
此外,为了推动融合的软件体验,Apple 将致力于增强其他设备(特别是 iPhone)的硬件。当然,iPad(至少是 Pro 版本)也会效仿。这使得 iPhone 和 iPad Pro 值得与 Vision Pro 分享体验,而空间 FaceTime 体验是我们最期望的。
苹果已经做好了准备
苹果已经为向现实化身的过渡奠定了基础,投入了多年的工作来创建和改进动话表情。苹果设备上的这些大型动画表情符号模仿人的面部表情和头部动作。
如果您不熟悉,Apple 还提供了专门版本的 Animoji(称为Memoji ),它可以创建 iPhone 用户脸部的 3D 漫画。然后,这个漫画可以用于个性化的表情符号,作为 iMessage 中的动画反应,甚至可以在 FaceTime 中(击鼓声)来遮盖他们的脸。
当我们认为 Memoji 是 Vision Pro 动画头像的先驱时,这并不奇怪。与 Vision Pro 上的动画头像一样,Memoji 利用 iPhone 或 iPad Pro 上的 TrueDepth 摄像头来跟踪头部的运动。
除了 Face ID 和 Animoji 之外,Apple 还使用 TrueDepth 摄像头来实现其他摄像头功能,例如 iPhone 上的工作室灯光效果和 iPad Pro 上的中央舞台功能。此外,它还允许第三方开发人员通过 API 将来自 TrueDepth 传感器的新数据维度添加到他们的应用程序中。对于 Apple 来说,在这些现有功能的基础上添加对类似于 Vision Pro 的增强 FaceTime 体验的支持才有意义。
支持我们论点的还有一个事实,即苹果近年来没有更新动话表情的视觉外观。临近iPhone 14发布时的最后一次动话表情更新仅添加了新的动画和一些面部表情,仍有改进的空间。
iPhone 和 iPad 已准备就绪
除了原深感摄像头之外,与这一想法相符的另一个方面是苹果移动设备上的硬件。大多数 iPhone 和 iPad Pro 型号均由与 Vision Pro 耳机相同(或类似)的强大硬件驱动,该耳机配备了 Apple 定制的M2 芯片。同样的情况也可以在 MacBook Air、13 英寸 MacBook Pro 和2022 年 iPad Pro上看到。
同样,驱动iPhone 14 Pro和iPhone 14 Pro Max型号的A16 Bionic芯片组与 M2 相同,但由于 CPU 和 GPU 相对较弱,处理能力稍差。尽管在 iPhone 上的性能不那么强大,但它仍然足够强大,可以渲染您的 3D 版本,同时实时重现面部表情和手势。
随着 A16 的后继产品,苹果预计将通过转向更高效的 3 纳米 (3nm) 制造工艺来对芯片组进行结构改进。根据一系列传闻的基准测试结果,A17 Bionic 可能会进一步接近 M2 。
移动设备是 AR 的门户
除了使用 iPhone 的 TrueDepth 摄像头为 FaceTime 创建虚拟角色外,iPad Pro 和 iPhone Pro 型号还能够复制 FaceTime 中每位参与者的图块,并以几何方式分布在 Vision Pro 上。 iPad Pro(2020 及更新版本)和 iPhone(12 Pro 及更新版本)配备了激光雷达扫描仪以及背面的摄像头。
激光雷达(光检测和测距的缩写)扫描仪可以通过向任何物理物体照射光并测量反射回来的量来准确检测从 iPhone 和 iPad Pro 到任何物理物体的距离。这使得激光雷达扫描仪对于增强现实 (AR) 应用非常有用。
在之前的 iPhone 和 iPad 发布会上,苹果专门针对AR 游戏和应用程序进行了精心的演示。该技术对苹果自己的 FaceTime 的扩展使其将空间 FaceTime 扩展到 Vision Pro 之外具有完美的意义。
苹果可能仍会令人失望
尽管我们一厢情愿,但今年我们可能不会在其他设备上看到空间 FaceTime。对于苹果来说,在 Vision Pro 预计于“2024 年初”发布之前将其 FaceTime 体验引入其他设备,这将意味着削弱与其未来派耳机相关的兴奋感和新颖性。不仅如此,如果这些功能仅限于 Vision Pro 来专门推动这款奢侈设备的销售,那么它也不会与苹果不同。
如果苹果确实决定将空间 FaceTime 引入其他设备,最早的受益者将是 2024 年的 iPad Pro 或 iPhone 16。但如果事实证明这是真的,iPhone 16 上的空间 FaceTime 将受益于改进的 TrueDepth 系统。隐藏在显示屏下方。
我想要在 iPhone 上进行空间 FaceTime
共享体验是Apple 理念的核心,这让我们对它将 Vision Pro 的这一关键功能带到 iPhone 和其他支持的设备上抱有不切实际的希望。虽然我们的期望在一定程度上是因为我们纯粹希望在不花 3,500 美元的情况下以新颖而令人兴奋的方式体验 FaceTime,但最近的 iPhone 和 iPad Pro 型号配备了实现这一梦想所需的硬件这一事实也支持了我们的期望。
然而,这种情况不会发生的可能性相同,甚至可能更高,这样苹果就可以迫使更多人分享其对超现实但数字编织的未来的愿景(双关语!)。毕竟,对于急需现金的牛来说,一台 Vision Pro 带来的收入大约是 iPhone 或 iPad Pro 的三倍。有传言还指出,带有 VisionOS 的耳机相对便宜,但它远不是一个更便宜的 SE-fied 版本。
也许,现在最好的行动方针是等到 2024 年几个月后。这将是 Vision Pro(希望)已经在市场上推出的时期,并给苹果一个机会——以及充足的指标——来评估这款耳机是否可以作为独立设备(具有一定的前沿)有利可图地销售,或者需要来自其老兄弟的支持以熟悉的感觉。