iOS 16 中的新功能将使应用程序能够免提触发真实世界的操作。这意味着用户可以做一些事情,比如走进房间就可以开始播放音乐,或者只需骑上它就可以打开电动自行车进行锻炼。苹果今天在公司全球开发者大会 (WWDC) 期间主持的一次会议上告诉开发者,即使 iOS 用户当时没有积极使用该应用程序,这些免提操作也可能会被触发。
如果开发人员和配件制造商选择采用该技术,则利用Apple 的 Nearby Interaction 框架的更新可能会导致一些有趣的用例,其中 iPhone 成为与现实世界中的对象交互的一种方式。
在会议期间,Apple 解释了当今的应用程序如何即使在后台运行时也可以连接到蓝牙 LE 配件并与之交换数据。然而,在 iOS 16 中,应用程序将能够使用在后台也支持超宽带的蓝牙 LE 配件启动附近交互会话。
与此相关,Apple 更新了配件制造商的规范以支持这些新的后台会话。
这为应用程序和物理世界之间的界限模糊的未来铺平了道路,但第三方应用程序和设备制造商是否选择使用该功能还有待观察。
新功能是 Apple 附近交互框架更广泛更新的一部分,该框架是开发者会议的重点。
该框架在 WWDC 2020 上与 iOS 14 一起推出,允许第三方应用程序开发人员利用 iPhone 11 及更高版本设备、Apple Watch 和其他第三方配件上的 U1 或超宽带 (UWB) 芯片。这就是今天 Apple 的AirTag提供的精确查找功能的动力,它允许 iPhone 用户打开“查找我的”应用程序,使用屏幕上的方向箭头和其他指导来引导他们的 AirTag 的精确位置,让你知道你有多远来自 AirTag 或者 AirTag 可能位于不同的楼层。
借助 iOS 16,第三方开发人员将能够构建执行大部分相同功能的应用程序,这要归功于一项新功能,该功能允许他们将 ARKit(Apple 的增强现实开发人员工具包)与 Nearby Interaction 框架集成。
这将允许开发人员利用从 ARKit 计算出的设备轨迹,因此他们的设备还可以根据应用程序的功能,智能地将用户引导到放错位置的项目或用户可能想要与之交互的其他对象。通过利用 ARKit,开发人员将获得比单独使用 Nearby Interaction 更一致的距离和方向信息。
但是,该功能不必仅用于第三方制造的类似 AirTag 的配件。例如,Apple 演示了另一个用例,博物馆可以使用超宽带配件引导游客参观其展品。
此外,此功能可用于将方向箭头或其他 AR 对象叠加在相机的真实世界视图之上,因为它有助于将用户引导至超宽带对象或附件。继续演示,Apple 简要展示了红色 AR 气泡如何出现在相机视图顶部的应用程序屏幕上,以指明前进的方向。
从长远来看,这项功能为传闻中的苹果混合现实智能眼镜奠定了基础,据推测,AR 驱动的应用程序将成为体验的核心。
更新后的功能正在向 iOS 16 软件更新的 beta 测试人员推出,该更新将于今年晚些时候面向公众推出。
原文: https://techcrunch.com/2022/06/07/in-ios-16-apps-can-trigger-real-world-actions-hands-free/