谷歌推安卓AR开发平台ARCore预览版ARCore源于Tango项目,功能大致相同谷歌为ARCore设定2017年夺得1亿用户目标8月29日,谷歌针对安卓系统推出了增强现实开发平台ARCore的预览版,可帮助开发者更方便快速地构建集成AR功能的App。ARCore被外界视为谷歌Tango项目的延续,这个项目旨在赋予移动设备对周遭空间与动态的感知能力,由前摩托罗拉移动的团队,谷歌先进科技与计划部门和计算机视觉处理芯片厂商Movidius合作开发。2014年2月,谷歌拿出了200台配备4百万像素普通摄像头、深度摄像头、动作摄像头、陀螺仪等传感器的首批原型机Peanut分发给开发者。在当时,这些原型机配合相关软件,就能以每秒1500万次的速度进行3D测量,进而可以绘制出周围世界的3D模型,基于这些模型,开发者就可以开发出可以识别物体或建筑的室内导航、利用周遭环境玩儿拟真3D游戏之类的App。2016年11月,Tango手机发布第二代产品联想Phab2 Pro,此时其已具备运动追踪、区域学习、深度感知三大技术,不仅可以追踪移动设备的在3D空间中的位置和记忆物理空间的关键视觉特征,还能通过结构光、飞行时间测距法等方式计算出各个物体之间的距离,这些技术每一项都符合AR的需求,然而在AR热潮都过了也没能走入主流市场,支持Tango的手机屈指可数,App总量也才百款左右,不足以吸引大厂合作,何况是进入消费者手中。然后再回过头来看这次新发布的ARCore,其首页挂着3大关键点:运动跟踪、环境感知、光线估测,大多是新瓶装旧酒的功能,但是,相对于Tango需要定制化手机,ARCore的门槛低了很多,首批就支持Pixel系列和三星Galaxy S8,而且之后会覆盖更多安卓7.0以上系统的手机。从开发环境支持上,相对于Tango,ARCore新增了对游戏引擎Unreal的支持,也是一个降低开发门槛的举动。从技术来讲,无论Pixel还是Galaxy S8都没有配备深度摄像头和动作摄像头,因此,ARCore已经换了种技术来实现与Tango类似的功能。ARCore运动跟踪的实现是通过单目相机读取图像,用特征匹配的方式估计运动轨迹,很有可能是采用直接法,用整张照片的像素信息来做相机位姿估计,跳过关键点和描述子的计算;而环境感知功能虽然名称高大上,具体实现起来也不过是检测平面而已,这样,在现实中放置虚拟对象时会比较合理,不会出现悬空或错位的现象。光线估测算是一个比较新颖的功能,它可以感知到现实世界光源的位置,让虚拟对象形成符合物理规则的影子,所以,当把ARCore生成的画面与Pokémon GO一对比,可以明显看出前者要真实得多。为配合ARCore发布,谷歌已经在g.co/arexperiments页面上放了一些如高级版的Pokémon GO、模拟烟花燃放、场景穿越和光绘之类的Demo,不过这依然不是为用户提供,而是作为一些启示开发者的案例。从发布时间来看,谷歌ARCore紧接着苹果6月发布的ARKit而发布,竞争意味明显,在功能大量雷同的情况下,比拼的更多不是技术,而是市场号召力,目前安卓已占领85%以上的智能手机市场份额,但支持安卓7.0的毕竟还是少数,所以即便谷歌在官方博客上喊出了在2017年结束前夺得1亿用户的目标,能不能实现还很难说。而苹果只要iPhone 6s和iPad Pro及之后的机型就支持ARKit开发的App,并即将迎来iPhone 8的窗口期,这场移动互联网巨头们的大战,最终受益的消费者们拭目以待。
文章目录
谷歌
谷歌于1998年9月成立于美国加州,是全球三大科技巨头之一,主业是搜索引擎技术服务商,创始人为拉里·佩奇、谢尔盖·布林。现任CEO为桑德尔·皮蔡。2015年10月,谷歌重组后成为Alphabet的子公司之一,旗下拥有搜索业务、Android业务、地图业务、AdSense广告业务、云服务以及YouTube子公司。
评论