带摄像头的 AirPods,苹果会怎么做出来?

作者: 肖凡博

来源: 爱范儿

发布日期: 2024-03-12 20:04:28

苹果正在探索带有屏幕的 HomePod 和配备摄像头的 AirPods,这些创新产品旨在通过 AI 和虚拟声场技术提升用户体验。

苹果对智能产品的设计,正在放飞自我。根据彭博社记者 Mark Gurman 的爆料,苹果在“未来设备”的规划里,有两个大胆的想法:一是带有屏幕的 HomePod 正在研发中,当中将集成 Apple TV、FaceTime 等重多功能;二是配备摄像头的 AirPods,低分辨率的镜头将用来收集周身信息,并通过 AI 处理数据,以此“协助人们的日常生活”。

两个概念产品目前还处于探索阶段,但我仍惊讶于这种“前卫”的组合,以及一反苹果“简约”的理念,特别是带镜头的耳机,实在有些费解。

在翻阅相关文献资料时,一份代号为 US11432095B1 的苹果专利文件,似乎能证明“镜头+耳机”这对奇葩组合的可行性。虚拟声场,离不开耳机上的镜头。首先,我们要理清一个原理:人是如何辨别声音发出的位置的?

两只耳朵在头两侧的布局,除了美观,更重要的作用是让我们拥有了听声辨位的能力。在保持同一水平线且轴对称的前提下,尽可能远离彼此,为的就是在听到同一个声源时,每只耳朵接收到的声音信息与另一只都有所差异,主要包括双耳时间差、强度差以及频率差三种,一般的来说这些差异都非常微小。

这份 US11432095B1 专利文件,就是在解释,苹果如何只通过耳机让用户听到来自四面八方的声音,就像是拥有了一整套环绕立体声设备。这项技术,被称为“虚拟声场”。拥有虚拟声场的设备能在当中构建若干个虚拟扬声器,通过听声辨位的生理特性,让每个扬声器都放在用户所处空间的固定位置,从而实现“一副耳机就是一套音响”的效果。

那,摄像头在当中发挥了什么作用?

科技博主何同学在 Vision Pro 评测的视频中做过一个实验:把 Vision Pro 的一个应用窗口放在固定的位置后,往远处走了 300 余米再回到原地,窗口的位置几乎没有发生变化。如此精准的定位来源于 Vision Pro 前方的视觉定位系统,通过红外线、摄像头等扫描所在空间的物理信息,并记录窗口在重构空间中的物理位置,以此实现了令人惊叹的准确定位。

AirPods Max 上的摄像头,也是利用相同的原理录入图像信息,再由跟踪处理器实时分析用户的头部位置信息,并且能够使用显示器和周围环境的映射作为参考,来跟踪用户的头部,实现双重保障。

如此看来,带镜头的 AirPods Max 所构建的虚拟声场,更像是 Vision Pro 的技术下放。

在先前的文章中,我们全面解析过 Vision Pro 通过空间视频、空间音频和空间交互构建起的“空间计算”,但高昂的价格和为数不多的生态适配,还是让其成了一款想要走进市场的概念产品。Vision Pro 开启的空间计算时代,是一个遥远的构想,是尖端显示技术、新型交互、运算能力的汇总,它更像一个目标和未来。

而专利文件里的 AirPods Max,用真正的“消费级”产品,实现客厅里的空间音频,比起 Vision Pro,它佩戴更舒适、使用更方便,当然价格也更合理。

当然,镜头+耳机的方案是否会真的来到我们的身边?即使苹果真的将二者融为一体,到底会走向文章开头的用 AI 协助人们的日常生活?还是回到专利文件中虚拟声场的技术路线?我们都难以得到确切的答案,不过在数种新型技术不断涌向市场的时候,终究会出现一个最适合时代的选项。在这之前,比起得到结果,不断地大胆尝试,才是当下最有价值的事。

UUID: d5cf3e27-6400-4d7b-a775-c301eeb9c779

原始文件名: /home/andie/dev/tudou/annot/AI语料库-20240917-V2/AI语料库/果壳公众号-pdf2txt/2024/果壳_2024-03-12_「转」带摄像头的 AirPods,苹果会怎么做出来?.txt

是否为广告: 否

处理费用: 0.0047 元