正确的提示信息

扫码打开虎嗅APP

从思考到创造
打开APP
搜索历史
删除
完成
全部删除
热搜词
2022-11-09 13:32
苹果的惊天大秘密,竟藏在了Apple Watch里?

本文来自微信公众号:极果网(ID:JguoJguo),作者:极果,原文标题:《苹果的惊天大秘密!竟藏在了Apple Watch里!?》,头图来自原文


苹果前两天更新的Apple Watch S8想必大家都已经很了解了,总结下来就是基本上没有什么重磅更新。


但是如果这么想的话就太小看苹果了,Apple Watch S8其实藏着苹果惊天大秘密,感兴趣的话就请看下去吧。



2022年9月16日,苹果在一年一度的秋季发布会上更新了Apple Watch S8,支持车祸检测功能和经期跟踪功能。


车祸检测功能用到了新增的一个高 g 值加速感应器,加上升级的三轴陀螺仪、麦克风、气压计、GPS,可以检测到车祸并且自动报警。



经期跟踪功能用到的是新增的两个温度传感器,可以在你睡觉的时候检测你的体温变化,提供经期跟踪功能,并且支持回推估算排卵日。



除此之外,外观没变,期待的直角边框版本没出现,SOC升级成了S8,但CPU没换。车祸检测这个功能还很像是苹果汽车的功能下放的。



但是转念一想,Apple Watch一直都是苹果的试验田,Force Touch、 Taptic Engine、 IPX7 级抗水、OLED 屏幕、不锈钢材质、LTPO都是在Apple Watch上先试验成功,一两年后下放到iPhone身上的。



按照这个逻辑的话,我们可以通过分析Apple Watch S8上使用的新硬件和新技术,预测苹果明年发布的新产品。


于是果酱就发现,如果Apple Watch S8新升级的三轴陀螺仪,仅仅用来检测车祸就太大材小用了,三轴陀螺仪的真正用途是追踪设备的运动轨迹,应用场景很可能就是AR眼镜,苹果可能在下一盘大棋。



发布会上,苹果在介绍车祸检测这个功能时,第一次强调了陀螺仪是“三”轴的,所以我们推测以前Apple Watch上的陀螺仪都是两轴的,只要能满足我们抬腕亮屏的需求就行。



这一次Apple Watch使用三轴陀螺仪,表面上是为了检测车是不是翻了,但是如果仔细想想就能发现,三轴陀螺仪是不是也能检测你的手腕运动轨迹和姿态呢?



现在的AR/VR眼镜缺乏优雅的交互方式,要么需要你随时随地捏个庞大的手柄,毫无便携性;要么是用摄像头识别你的手势,精确度很差。



如果Apple Watch可以检测你的手腕的运动轨迹的话,苹果眼镜是不是既不用庞大的手柄,也不需要摄像头识别手势呢?


Apple Watch S8很可能不是一块手表,而是一个AR眼镜的遥控器。



照着这个思路的话你就会发现,苹果为了把这个AR遥控器塞你手里,早在两年前就开始布局了。


这个在两年前埋的伏笔就是,可以在室内高精度定位的U1芯片,Apple Watch 从S6开始就加入了U1芯片。



按理来说,手表是戴在手腕上的,取下来的时候基本上就是在充电,不太会有丢失的情况。发布会上也没说加入U1芯片能带来什么。


但是如果Apple Watch是AR遥控器的话,就能说得通了,U1芯片可以判断Apple Watch距离其他苹果设备的距离,也就是空间中的相对位置。



如果AR眼镜中放了一盆花,我们把手伸过去,U1芯片就可以检测我们的手是不是靠近了花盆,触控是最符合直觉的选择交互目标的交互方式。



在选中对象以后,苹果也有了成熟的方案来操作目标物体。


你有可能不知道,苹果在去年夏天发布会发布的watchOS8,里面新增了一个帮助残障人士使用手表的功能:辅助触控。



然后你就能发现Apple Watch增加了四个手势:


  • 食指拇指互点一下是前往下一个项目。


  • 点两下是返回上一个项目。


  • 将手握拳相当于确认。


  • 握拳两下可以调出操作菜单。



操作菜单里面有滚动、按下数码表冠这些功能,可以用捏手指上下选择,然后用握拳来确认,利用这两个手势你可以完全控制Apple Watch,让他点按数码表冠、上下滑动都没问题。



这个功能现在可以用来操控智能手表那么未来是不是也能用来操控智能眼镜呢?


用三轴陀螺仪识别我们手腕的运动轨迹;用U1芯片识别我们的手腕位置;用手势识别我们的操作。


然后AR眼镜的操作就非常优雅了:


我们的点击操作既不需要隔着空气乱戳,也不需要在手上捏一个手柄,眼神注视就可以选择我们需要选取的物品,招之即来、挥之即去,只需要捏一下手指或者握一下拳就可以单击确认。


操作AR眼镜会和操作智能手机一样优雅。



既然苹果考虑得这么完善那么AirPods上是不是也有给AR眼镜准备的硬件呢?当然也有。


在AR眼镜里,每一个物体都是有相对方位的,比如我们把这个虫子放在树后面,然后移动位置,虫子就会被树木遮蔽,这就是物体在空间中的相对位置。



而空间音频的作用是让声音出现在它应该出现的位置,你转动头部,物体的位置发生移动了,声音的来源就要跟着发生移动,第一代AirPods Pro上的陀螺仪就是为了识别头部移动的。



知道了物体的方位,我们还得知道人耳识别声音来源的原理:人耳识别物体方位,依靠的不仅仅是声音到达两耳的时间差,还有声音到达两耳的相位差,相位差会被我们的头部和耳廓影响。



用数学来表示就是HRTF (Head-related transfer function)头部相关传输函数。对,苹果发布会上,AirPods Pro2支持用iPhone扫描你的耳朵就是为了这个。



在AR眼镜上放置扬声器不仅会让别人听到你在干啥,还会占用宝贵的体积,更不容易根据HRTF做空间音频功能,但是用AirPods Pro的话就没有这些问题了。


所以苹果AR眼镜很可能没有内置扬声器,它的扬声器就是AirPods Pro,现在也在我们的手里了。


如果你关注科技圈的话,一定能注意到苹果对AR的偏爱,无论是从iPhone 12 Pro 和 iPad Pro 2020搭载的激光雷达,还是今年iOS16上,长按照片中的主体把它提取出来的功能。



这些软硬件更新都说明,我们距离苹果AR眼镜只有一步之遥了。


而把识别手势操作的功能交给手表,把出声儿的功能交给耳机,既可以提升苹果眼镜的体验,也可以减小眼镜的体积、降低重量,AR眼镜距离我们又近了一步。



如果说Apple Watch和AirPods只是iPhone的配件,有没有都行;那他俩对于AR眼镜来说就是他不可或缺的一部分了。而苹果已经把AR眼镜的一部分放到我们手里了,具体发布时间很可能就是媒体一直宣传的2023年。


所以苹果会带给我们