9 月 14 日消息,长期以来外界普遍认为 Apple Glass(苹果智能眼镜)将是苹果在头戴式计算领域迈出的下一大步,尽管苹果的愿景是推出具备增强现实(AR)功能的智能眼镜,但首款上市的产品功能将大幅简化,且距离发布已为期不远。
在彭博社周日发布的“Power On”通讯中,马克・古尔曼(Mark Gurman)对苹果智能眼镜的研发情况进行了分析。他认为,苹果将在未来 12 至 16 个月内进军该市场。
注意到,古尔曼进一步指出,苹果推出的首款智能眼镜将是无显示屏版本,其定位是与 Meta 的 Ray-Bans(雷朋)智能眼镜展开竞争。这意味着该款产品将配备摄像头、具备播放与录音功能的音频系统,并需连接 iPhone 以实现数据处理。
而能通过镜片显示内容的完整智能眼镜体验,预计还需数年时间才能成为现实。这其中的关键瓶颈在于设备的微型化与减重技术,苹果的目标是让产品尽可能接近普通轻量眼镜的形态,而非像 Apple Vision Pro 那样笨重。
关于 2026 年或 2027 年苹果发布智能眼镜的说法,此前已有郭明錤(Ming-Chi Kuo)等分析师提出,但古尔曼无疑是这一时间线最坚定的支持者之一。他曾多次报道,苹果智能眼镜可能于 2026 年发布,也不排除推迟至 2027 年的可能性。
古尔曼还特别强调,苹果在智能眼镜领域拥有一项天然优势:凭借其品牌影响力,现有 iPhone 用户将很可能主动选择苹果智能眼镜。
此外,苹果具备将硬件深度融入自身生态系统的能力。Meta 等竞争对手在让其智能眼镜与 iPhone 兼容时面临诸多困难,而苹果则可像对待其他产品一样,实现智能眼镜与 iPhone 的深度整合。
这种整合能力及完整的生态系统,被认为可能成为苹果未来智能眼镜产品的核心竞争力。
据悉,苹果目前还在研发一款内置摄像头的 AirPods。有观点认为,这款产品搭载的红外感应摄像头可用于检测用户所处环境,并将视频数据传输至 iPhone 和 Apple Intelligence,以支持计算机视觉相关功能。鉴于 AirPods 本身已具备音频功能,为其添加摄像头后,这款个人音频设备将有望拥有当前主流智能眼镜的核心功能。
这一概念还可进一步延伸:让配备摄像头的 AirPods 与智能眼镜协同工作。通过多摄像头视角与多角度拍摄,Apple Intelligence 将能获取更丰富的数据;同时,结合 AirPods 现有的高品质音频驱动单元与麦克风,整套系统的音视频体验或能得到进一步提升。