手机数码

    今日:3| 主题:38624
收藏本版 (4)
手机、平板、VR等3C数码产品的交流.

[其他] iPhone 7 Plus是苹果迈向增强现实的第一步吗?不太像

[复制链接]
htgh 发表于 2016-10-1 15:12:57
180 3

立即注册CoLaBug.com会员,免费获得投稿人的专业资料,享用更多功能,玩转个人品牌!

您需要 登录 才可以下载或查看,没有帐号?立即注册

x

iPhone 7 Plus是苹果迈向增强现实的第一步吗?不太像-1 (iPhone,双摄像头,广角镜头,谷歌,局限性)
    原文作者:Mark Sullivan        文章来源:fastcompany
  这是一个很合理的问题。苹果在2013年收购了一个叫PrimeSense的3D成像公司,现在又发布了一款搭载双摄像头相机并拥有感知景深能力的手机,这些是捕捉三维空间和物体的基本要求。再加上库克发表了一些言论表达了他对增强现实的兴趣。所以很自然会联想到iPhone 7 Plus代表了苹果开发可以在现实世界中放置三维物体的增强现实类产品的第一步。微软的HoloLens头盔已经在做这件事了,另外联想的Phab 2 Pro(第一款使用谷歌探戈计划增强现实技术的产品)也在做。
  iPhone 7 Plus搭载一个28mm广角镜头和一个56mm镜头(从技术上讲它不是苹果宣传材料上所描述的那样一个长焦镜头,而更像是一个“人像”镜头)。
  两个镜头可以协同工作,测定画面范围内有限数量的物体景深信息。但是其能力却受限于捕捉AR图像,这主要有两个原因——一个是他们仅能得到他们可以看见的图像元素上的景深信息,第二个是它们距离太近了,无法获得更大的使用范围。
  一、双镜头的局限性
  有人告诉我,iPhone 7 Plus使用的相机组件基本上是由LinX公司——2015年被苹果收购的以色列相机模块公司——开发完成的。在被收购之前,LinX公司声称它的智能相机模块能够实现单反级别的成像质量,而且占用空间极小,可以被放进手机中。这些宣传语跟苹果介绍iPhone 7 Plus相机如出一辙。
  LinX还曾炫耀其双镜头技术在图像中捕捉景深的能力——这是捕捉AR空间和图像的底线——图像中的背景可以独立于前景进行处理,甚至可以换成其他背景。这就解释了苹果最引以为傲的iPhone 7 Plus相机的独特功能——前景(人物)清晰锐利,而背景却模糊一片。苹果称这个为“人像”模式。
  为了实现这个效果,两个摄像头必须协同工作以捕捉足够多的图像数据来合理推测前景中的事物是一个人。它们可以识别事物,比如头部边缘。相机用一套算法来识别人脸的部位。一旦它确定前景中的物体是一个人,它就会将那部分区域精准对焦,然后假设其他事物就是背景并对背景进行模糊处理。
  这就是症结所在。为了建立图像给定区域的景深,两个镜头必须能够在这些区域里独立地和唯一地标识点位。当软件能够匹配这些标记点时,相机才能呈现画面中物体的3D效果。
  然而,这取决于画面中是否有多样的物体和外表面。如果相机对着一面缺少变化的白墙,举个例子,相机软件就无法匹配每个镜头捕捉的标记点,也就无法收集足够的景深信息。
  为AR内容捕捉3D影像和建立本地环境投影需要一些能够提供精细和连续的景深数据的硬件的支持。相机传感器应该可以侦测并指定水平坐标系(x和y)以及一个垂直于视野中物体表面的z值。相机必须能够在空间中定位自己的位置,甚至是在移动中。
  二、相机位置
  iPhone 7 Plus上的双摄像头的位置也让人质疑它的AR可用性。按照经验来讲,两个一模一样的镜头之间的距离,乘以10,在这个距离之内才可以捕捉到景深。所以如果镜头间距离是1英寸,那么它们就可以在相机前10英寸以内的距离里定义空间中的三维物体。
  iPhone 7 Plus相机上的两个镜头之间的距离差不多一厘米。如果这两个镜头一模一样,那也就意味着这个相机只能捕捉10厘米范围内的景深。
  但是iPhone 7 Plus的两个镜头是不同的——一个广角,一个“人像”——所以“10倍距离”方程式不能适用。一位AR专业人士告诉我借助重度软件校准,iPhone 7 Plus相机可以具有50倍镜头间距离的深度侦测能力。即使这样,50厘米也不是很远。
  如果使用双镜头来为AR应用捕捉图像,苹果应该在设计时将两个镜头分开一定的距离。
  三、没看见PrimeSense传感器
  AR设备通常使用“有源”传感器测量景深(比如微软的HoloLense)。这些传感器发射一束光并测量光线弹离物体的时间。用这个时间间隔确定物体在相机视野里的定位。
  苹果收购PrimeSense就是为了这个有源传感器技术(“结构光”传感器,确切的说)。但是iPhone 7并没有采用PrimeSense的传感器。iPhone 7 Plus使用的还是存在于绝大多数传统相机里的无源传感器。无源传感器通过从环境中捕捉光线进行工作,但是捕捉的景深信息较少,也更不可靠。
  SciFuture的首席技术官Scott Susskind相信苹果不在iPhone 7 Plus上采用PrimeSense的技术是因为苹果并不打算在手机上提供AR体验。“PrimeSense和他们的深度感知技术是比iPhone 7 Plus的双摄像头还要高级的AR追踪解决方案”。
  Susskind表示苹果可能在iPhone 7相机中用到了PrimeSense的计算机视觉算法,而不是用其硬件传感器去得到更好的3D追踪功能。
  四、库克说了什么
  我们现在讨论的是手机上的AR体验。虽然Pokémon Go大获成功,我还是不相信Jony Ive的工业设计团队会对这种基于手机的AR体验感兴趣。这与他们的品味不符。手机在用户和所处的环境之间制造了一个壁垒,这是一种很蹩脚的体验。
  其实,库克关于AR的评论已经证实了这一点。库克在《早安美国》访谈中说:“AR可以做到像此时此刻我们两个彼此面对面坐着谈话聊天,同时身旁可以有一些虚拟的东西或人我们都可以看到并与之互动。”
  库克的评论似乎指向了苹果追求增强现实产品时的一个偏好,不是像Oculus VR那样的让用户完全与世界隔离的体验。但他的评论还提到苹果真正感兴趣的AR类型不是那种让用户一直盯着的智能手机或者平板电脑的屏幕。别人告诉我库克的评论其实是在说一个“抬头可见”的体验,那种AR头盔或者眼镜可以带来的体验。
  我不怀疑苹果对增强现实感兴趣,而且我很确信在硅谷某个不为人知的地方的工作台上就摆着一众AR设备原型产品。但我怀疑这些设备是平板或手机。
友荐云推荐




上一篇:国庆出游将家当打包压缩,一个背包说走就走
下一篇:DJI Mavic Pro 被称为「史上最强」便携无人机的 10 个理由
酷辣虫提示酷辣虫禁止发表任何与中华人民共和国法律有抵触的内容!所有内容由用户发布,并不代表酷辣虫的观点,酷辣虫无法对用户发布内容真实性提供任何的保证,请自行验证并承担风险与后果。如您有版权、违规等问题,请通过"联系我们"或"违规举报"告知我们处理。

gqbrr590 发表于 2016-10-1 17:04:52
待我长发及腰,少年娶我可好?
回复 支持 反对

使用道具 举报

zaz11888 发表于 2016-11-8 17:39:49
怎么破
回复 支持 反对

使用道具 举报

蓝冰恋歌tma 发表于 2016-11-10 08:19:08
我是火华哥,抢沙发专业户。。。。
回复 支持 反对

使用道具 举报

*滑动验证:
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

我要投稿

推荐阅读

扫码访问 @iTTTTT瑞翔 的微博
回页顶回复上一篇下一篇回列表手机版
手机版/CoLaBug.com ( 粤ICP备05003221号 | 文网文[2010]257号 )|网站地图 酷辣虫

© 2001-2016 Comsenz Inc. Design: Dean. DiscuzFans.

返回顶部 返回列表