又到了一年一度的GoogleIO,今年GoogleARCore依然带来新功能的发布,一年多以前,我们首次推出ARCorebyGoogle,这个帮助开发者打造的增强现实的开发平台。我们持续深耕技术,每六周都带给开发者们一些新的功能。 基于ARCore,开发者们也不负众望,创造了数以千计的AR应用,为大家的生活方方面面都创造了便利,不管是帮助你修理你的洗碗机、购买新的太阳镜,或绘制美丽的夜空,都给足了你惊喜。2018年IO以来到如今,ARCore支持的设备提升了四倍达到了4亿。 今年GoogleIO2019,我们也带来诚意满满的更新,有增强图像、光估测等功能,这些功能都能够帮助你打造充满互动乐趣、真实感十足的体验。更棒的是,为了让更多人都能体验AR,我们推出了场景查看器(SceneViewer),让每个人从网页上以AR模式查看3D模型。 增强图像(AugmentedImages) 增强图像主要是运用图像识别和姿态评估算法来完成,过去只能追踪静态的图像,但我们知道,现实世界中物体其实不会待着不动,所以这次我们更新了视觉的算法,可以实现同时追踪运动中的图像,以及多图像检测,比之前提高了30的精准度,15更快的检测召回率。 用户只需使用摄像头对准2D图像(如海报、图标等),就能实现内容可视化,让平面物体更真实地活起来。这项能力赋予了开发者创造动态交互的可能性,可以解锁多个图像动态的各种玩法。 比如本次的案例中,JD。com正是使用了ARCore这一新能力,创造了寓教于乐的拼单词玩法。多张卡片检测轻松而稳定,从静态卡片衍生出3D字母,然后还可以拼单词,解锁妙趣横生的动画,这让背单词变得前所未有的好玩。 光估测(LightEstimation) 一个物体到底为什么真实呢?很大程度是因为光照。在现实中,光源的方向、色温、高光等条件,会改变物体的外观,有光感明暗交错,有阴影,一个物体才能看上去真实。因此模拟现实环境中的光照感觉,可以让AR虚拟物体看起来更真实。 去年我们介绍过光估测的概念,就是提供一个环境光强度,将现实世界的光照感觉拓展到数字场景中。为了实现更逼真的光照,我们在光估测的API中增加了一个新的模式,环境HDR光照效果(EnvironmentalHDR)。从下面这两个自然光照中的模型来看,你能分清谁是真的模特,谁是虚拟的模特吗? EnvironmentalHDR利用机器学习分析单个相机画面来理解360度环境中的高动态范围光照。它分析可用的光照数据,将现实光照扩展至虚拟场景之中,提供精确的阴影、高光、反射等信息。当激活EnvironmentalHDR时,数字对象将如同实体对象一样被点亮。即使光源移动,两者仍然无缝融合,栩栩如生。 EnvironmentalHDR为开发者提供了三个用于重现现实世界光照的API: MainDirectionalLight:有助于以正确方向摆放阴影 AmbientSphericalHarmonics:有助于模拟来自各个方向的环境光 HDRCubemap:提供镜面反射高光和反射 场景查看器(SceneViewer) Google希望可以帮助用户更轻松体验AR,所以SceneViewer就应运而生啦。用户将能直接在网页端体验AR,无需下载单独的应用程序。 要确保SceneViewer能够访问你的物体,你首先需要用Web组建来将glTF3Dasset添加至网站,然后为这个Markup添加“ar”属性。从今年晚些时候开始,SceneViewer体验将出现在Google搜索结果中。 增强脸部(AugmentedFaces) 说起增强脸部(AugmentedFaces)功能,也是赚足眼球的一项。众所周知,美颜自拍、自我展现是现在越来越流行的主流趋势,想打造更多元化、更有趣的效果,离不开技术的支持,本次针对面部的AR体验,ARCore可以提供支持针对前置摄像头支持468个点的3D网格,使用这项功能,你可以随时变脸,比如美图的BeautyPlus,就使用此功能创造了有趣的脸部互动。 庆祝生日或一些特殊日子的时候,想砸蛋糕玩一玩,但又不想浪费或者弄脏衣服,现在不用担心啦,打开摄像头,对着平面张张嘴,蛋糕瞬间就砸在你的脸上,是不是又滑稽又可爱? 这个功能在2月份的时候已经随着ARCore1。7出现在Android平台;本次IO大会上,我们宣布这个功能将会支持iOS,并且会覆盖是所有的支持ARKit的设备,包括那些没有深度摄像头的设备。 这些就是2019年IO上新鲜出炉的更新解读,ARCore最新的1。9已经在中国各大应用商店上线啦,快快应用起来,创造更有趣、更真实的AR体验吧! 来源:新浪VR