Pixel 4:谷歌借助双照片传感器提升增强现实性能

谷歌正准备提高 Pixel 4 在增强现实方面的性能。到目前为止,智能手机仅使用其中一个光电传感器来计算必要的数据。在未来的 SDK 更新中,它将同时使用这两个传感器。目前尚不清楚 Pixel 5 是否会受益于此。

为了使其智能手机能够提供增强现实功能,谷歌开发了一个 SDK,名为AR核心。借助运动传感器、光线,当然还有光传感器,后者可以执行必要的计算以将虚拟对象放置在环境中。尽管如此,ARCore仅使用一个摄像头传感器,尽管开发了具有三个甚至四个传感器的手机。

因此,谷歌决定对此进行补救。因此,该公司正在部署 ARCore 更新,使其能够同时使用两个光电传感器。在发布注释中,我们可以注意到“通过兼容设备上的双摄像头实现立体深度”。因此,受影响的智能手机将显示增强现实中的更好表现,特别是在深度的计算中。

关于同一主题 - 官方 Pixel 4a 5G:Google 推出增压中档版本,售价 499 欧元起

更新内容将是未来几周内可用根据谷歌的说法,目前应该只关心Pixel 4 和 4 XL。这个决定有点令人惊讶,因为除了最近发布之外,Pixel 5 和 4a 5G 还配备双照片传感器。然而,这可以通过以下事实来解释:它们的辅助传感器比前代传感器大得多,这可能会使深度计算复杂化。

因此,谷歌再次遭受了后果他在摄影方面的冒险选择。长期以来,该公司坚持认为其智能手机不需要多个传感器,这要归功于已经提供的令人印象深刻的计算性能。但她用 Pixel 4 扭转了局面,配备双传感器。这种犹豫不决并非没有后果:Pixel 5 和 4 的照片质量显着下降与旧型号相比。

来源 :安卓警察


询问我们最新的!