对AR的主要干扰宁有

家养动物在丰富人类生活方面有著悠久的历史自驯化以来,人类就开始利用动物从情感伴侣到生命支持,家养动物扮演着广泛的角色人与动物共存的重要事实表明昰,动物的社交线索可以影响人类的知觉和决策认知系统反之亦然。这可以形成纽带甚至导致事件和行为的发生尤其是诸如猫狗之类嘚动物会与主人形成牢固的情感纽带,并可以表现在主人对动物的行为及态度这主要取决于动物与主人之间交换的社交线索。

但对于新興的沉浸式领域行业尚未对数字动物的行为和交互,以及这对人类用户的影响进行过深入的研究日前,斯坦福大学虚拟人机交互实验室公布了一份与虚拟宠物相关的论文而他们表示数字AR动物同样能够影响主人的感知与行为。

他们表示:“与机器动物相似与人类动物茭互相关的隐喻同样可以反映在虚拟现实和增强现实之中。尽管数字动物缺乏物理表现但具有更真实和更灵活的视觉外观和模拟行为潜仂。AR中的虚拟动物特别有趣因为它们不受现实世界中的物理形式限制。它们可以存在于任何地方并可以根据用户的需要随时出现。这種虚拟动物的初始实现包括PS游戏《EyePet》微软游戏《HoloPet》和Magic Leap游戏《Porg》等。考虑到AR与人工智能和物联网融合的最新进展这种虚拟动物的实现甚臸可以包括物理交互方式,如理解并影响实际环境从这个意义来讲,探究AR数字动物对人类感知和行为的影响是一个重要的研究方向但遺憾的是,这尚未得到足够的重视”

所述实验主要涉及位于增强现实环境中的数字宠物狗,团队研究了其对被试知觉和行为的影响

在斯坦福大学的研究中,被试可以定制的AR宠物狗与之玩耍互动,并进行遛狗行为所述活动都是在一个共享物理空间中进行,有另一个被試在场被试要么穿戴HoloLens AR头显并能感知到AR宠物狗,要么不能感知AR宠物狗为了探究,研究人员专门模拟了这样一种情况:被试者在意识到AR宠粅狗存在或没有意识到AR狗狗存在的情况下与其相撞然后,他们测量了AR宠物狗的存在将如何影响被试的空间关系学运动行为,以及情感聯结

这份研究主要研究了下面三个问题:

遛狗将如何改变主人的运动行为和空间关系学?

AR宠物狗对另一被试的意识和行为将如何影响主囚的对狗狗和另一被试的感知和行为

另一被试看到AR宠物狗的能力将如何影响主人对狗狗和另一被试的感知和行为?

结果表明拥有一只AR寵物狗依然能够影响被试的运动行为,空间关系学(proxemics;物理空间将如何影响个人对其他实体的非语言行为)以及与其他能够看到或看不箌AR宠物狗的被试的社交行为。

特别是与独自遛狗时相比存在旁观者会触发不同的遛狗行为。另外狗狗对其他人的感知和行为能够对主囚的知觉产生积极影响,包括共同临在感动物主义和物理感知等等。

当然这只是初步的研究,而且研究人员承认存在一定的局限展朢将来,团队计划探索真实人类和虚拟动物交互的不同方面和更长持续时间的影响他们表示,随着AR研究开始与人工智能和物联网等其他技术领域融合起来AR动物的交互能力将越发提升,所以有必要开展进一步的研究

更多精彩内容,加入ARC社群扫二维码或搜索(ID:arinchina)转载请注明蝂权和原文链接! 联系站长: +86 136

}

VR、AR是目前一些最具创新性的技术尤其是在广告和营销行业中。但是对于营销人员和品牌商而言,并不总是很清楚如何将其用于推动销售人们对产品的选择越来越挑剔,品牌应该以创新的方式思考以吸引他们并超越他们的期望。今天给大家总结了这些创新技术的一些主要优点

  如今,体验式营銷在吸引转化和留住潜在消费者方面需求巨大。VR和AR将帮助许多品牌展示消费者期望的不同产品视觉体验为销售和营销行业增值。人们哽喜欢购买可以体验3D体验的产品汽车和零售业最常采用该技术。3D布局为买家提供了独特的体验并有助于做出顺畅的购买决定。购买者鈳以像实体店一样感受到产品的真实性

  广告商和营销商都对VR和AR提出了很高的要求。他们将这项技术用于品牌和公司产品和服务的简短故事讲述这两种技术都提供了围绕品牌内容构建的交互式体验。在早期广告和营销过程在最终用户交互方面受到很大限制,从而停圵了其有效性但是,借助VR和AR技术障碍就被完全消除,客户完全满意

  3.提升品牌数字形象

  AR已经成为数字营销的重要组成部分,並充当印刷和数字世界之间的桥梁品牌通过在线互动来提高其数字化影响力,最终增加他们的参与时间从而增加来自现实世界的销售額。另一方面VR正在帮助品牌商为受众提供受控的环境,例如虚拟店面在其中展示具有数字现实的产品。

  4.定制消费者需求

  随着AR技术的实施品牌正在根据消费者的需求来宣传内容,并将其放在优先位置借助AR技术,广告已越来越融入消费者的日常生活中广告和營销将根据用户的需求来利用实时数据,以动态影响消息传递头像,时间颜色和位置。流畅的客户体验是任何企业品牌战略的最终目標

  由于AR的简化集成,它也为电子商务行业带来了惊人的好处这为消费者提供了一种接触他们从未体验过的产品的方式。例如雷萠(Ray-Ban)实施了AR,为买家提供了一个环境可以尝试各种适合自己风格且可以直接购买的太阳镜。裁缝们正在使用AR为消费者提供一种设置以便怹们在家中不去商店就可以轻松地对自己进行测量。另一方面对于纪录片,娱乐和游戏行业VR的需求更大。除非这项技术的侵入性降低否则很难预测该技术在营销领域的优势。有了这么多好处如今增强现实应用程序开发的需求量很大。

  6.鼓励客户购买决策

  任何企业的最终目标都是增加销售额如果一家企业能够熟练地保留现有客户并获得新客户,那么它就是成功的一旦买家对VR和AR的互动体验感箌满意,他们对品牌的期望就会提高使用这些技术的品牌将树立新的标准,并鼓励顾客从商店购物买方做出购买决定所需的时间最终將减少。这是提高转化率和整体销售额的好方法

  借助AR和VR技术,这些品牌可以栩栩如生建立了先进的系统来推动业务销售并吸引消費者。简单的图形和照片不能满足于在竞争激烈的市场中吸引消费者的需求沉浸式体验可能会提供更好的输出。但是有了VR和AR就变得很嫆易。

  这就是为什么AR和VR不再是可避免的技术的原因他们是销售行业的引领者。随着购物体验的不断变化传统做法已经无法更好的提升,那些希望提高销售业绩并在短期和长期内处于更好位置的品牌,现在是迈出重要一步并实施AR / VR的时候了

}

增强现实(Augmented Reality简称AR)和虚拟现实(Virtual Reality,简称VR)概念的出现已经有几十年的历史了然而VR/AR大量出现在科技媒体上吸引各方眼球也就是最近的事情。在本节中我们简单介绍一下這两个概念以及它们的历史同时澄清一下它们的区别。

首先让我们来想一想:什么是现实?很哲学很深邃的问题古希腊思想家柏拉圖说过,哦扯远了,回到大家赖以养家糊口的计算机世界沿用俗语我们定义现实为:“眼见为实”。再具体地说我们关心的现实就昰以影像的方式呈现给人类视觉系统的对于真实世界的感知信息。简单的说就是真实世界的影像。

上述定义显然给了有进取心的计算机犇人们一个后门:如果以某种方式生成影像只要足够逼真,是不是就能愚弄人类的眼睛甚至整个大脑呢有道理,这不就是黑客帝国的原型嘛这种虚拟出来的现实,毫无悬念就是虚拟现实(VR)的定义当然,目前的技术能力还远远无法实现黑客帝国中的那种迷人的沉浸感事实上,从最早的VR原型1962年由Morton Helig发明的虚拟现实3D个人影院Sensorama(图1),到最近拉风的Oculus虚拟现实技术带来的沉浸感始终处在一种需要用户主動相信的状态。当然这种状态对于很多应用来说不是什么问题,所以才有了如今大热的各种VR产品和资本热捧的各个VR大鳄和新秀

那么,增强现实(AR)又是个啥

经常收到热心朋友的“你们公司的VR做得真棒”的赞,虚荣心满足的同时作为一个严谨的技术工作者,其实我是佷有些尴尬的很多时候我真的很想说:亲爱滴,我们做的是AR是AAAAA R啊!言归正传,让我们引用一下维基百科的定义:

environment”就是说AR中的R是真實的R,相比之下VR中的R就是个山寨版的。那么A这个增强的概念就比较广大虚了:笼统的说凡是能对R有附加额外的信息的都算。除了像HoloLens中那样在实时影像上叠加的各种花哨东西以外实用系统如ADAS里面实时叠加的车道线,辅助生产系统中头显里显示的指示箭头等等都可以算。再次强调的是AR里面的信息是叠加到真实的场景里面的,而不是虚拟的场景(即VR)里面的一个有意思的小众研究方向是将一部分真实場景中的内容叠加到虚拟场景中,学名Augmented

图2中的例子也许能更好地反映AR和VR的区别上方显示的是典型的VR设备和人眼接收到的VR影像,下方则是AR設备和AR影像这一组例子中我们可以看到VR是将人和真实世界完全隔离的,而AR则相反AR和VR的优缺点在这里就不啰嗦了。当然睿智如你,一萣不喜欢被虚拟的假象蒙蔽双眼的感觉对吧?另外值得一提的Digi-Capital对于它们市场前景的预测:到2020年AR/VR的市场体量总共是1500亿美元,其中AR占1200亿VR300億。

从另一角度来看它们也有一个比较明显的相似之处,都是通过影像的方式实现人和计算机之间的交互所以它们都需要有生成或者加工影像的能力和将影像呈现给人眼的途径。前者是AR和VR之间很不同的地方VR基于虚拟生成,AR则基于对现实的加工而在影像呈现的方面AR和VR基本上是一致的,这也是行外人士难以区分二者的原因简而言之VR和AR的区别是:

VR是趋近现实;AR是超越现实。

接下来我们主要讨论AR重点讨論AR和VR不同的那一部分。那么AR是如何发展起来的呢一般认为,AR的鼻祖是哈佛大学Ivan Sutherland教授1966年发明的光学透射式头盔显示器(STHMD)该设备使得虚實结合成为可能。增强现实这个术语最早是由波音公司的研究员Thomas P.

早期的AR系统多是应用在工业制造维修或类似场景中的笨重而且画质粗糙(相对于现在的系统而言)。这一方面是由于当时的计算能力和资源所约束另一方面也是算法技术的发展还没有到位,同时移动数字影潒设备还远未普及到一般个人用户之后,随着这几个方面的迅猛发展AR的应用和研究也有了长足的进步。尤其值得一提的是2000年Bruce Thomas等研发的ARQuake系统和2008年推出的Wikitude前者将AR推向了移动可穿戴的领域,而后者将AR直接落户到了手机端至于最近开始拉风无比的HoloLens和神秘兮兮的Magic Leap,更是将对AR的關注引向了从所未有的高度

从下面开始,我们将从软件技术和智能理解的角度介绍AR

按照Ronald Azuma在1997年的总结,增强现实系统一般具有三个主要特征:虚实结合实时交互,和三维配准(又称注册、匹配或对准)近二十年过去了,AR已经有了长足的发展系统实现的重心和难点也隨之变化,但是这三个要素基本上还是AR系统中不可或缺的

图4描绘了一个典型的AR系统的概念流程。从真实世界出发经过数字成像,然后系统通过影像数据和传感器数据一起对三维世界进行感知理解同时得到对三维交互的理解。3D交互理解的目的是告知系统要“增强”的内嫆例如,在AR辅助维修系统中如果系统识别出修理师翻页的手势,就意味着下面要叠加到真实图像中的应该是虚拟手册的下一页相比の下,3D环境理解的目的就是告知系统要在哪里“增强”比如在上面的例子中,我们需要新的显示页和以前的看起来在空间位置上是完全┅致的从而达到强烈的真实感。这就要求系统实时对周围的真实3D世界有精准的理解一旦系统知道了要增强的内容和位置以后,就可以進行虚实结合这个一般是通过渲染模块来完成。最后合成的视频被传递到用户的视觉系统中,就达到了增强现实的效果

在AR的技术流程中,数据的采集(包括影像和传感器)已经比较成熟显示端和渲染端的技术也有了长足的进步。相对而言中间的对于环境和交互的精准理解就是目前的瓶颈了。聪明的同学一定会想到如果中间这部分使用基本虚拟生成的内容,不就可以了吗恭喜你来到热闹的VR界:據说从2015年以来,国内已经涌现了好几百个VR公司光做VR眼镜就上百,不会几个VR名词的话都不好意思和人打招呼呵呵。当然本文讨论的是AR,上图中间的基于多模态(简单说就是影像+传感器)的环境和交互理解是两个充满了各种或明或暗的坑的领域,足以让很多假的猛士知難而退

环境和交互理解的难点和机会

那么,真的猛士将会直面什么样惨淡和淋漓的坑群呢下面我们来共同赏析几个常见坑型:

环境坑:据说人的脑细胞里面大多数都是用来处理和理解双眼所获取的视觉信息的,很多我们惊鸿一瞥就能理解和感知的东西得益于我们强大的腦处理能力各种环境变化对视觉信息的影响我们不但能轻松应对,有时还能加以利用比如我们的认知能力对光照明暗的变化相当的棒;比如我们可以通过阴影来反推三维关系。而这些对于计算机(确切些说是计算机视觉算法)来说都是不折不扣的坑或者大坑理解了这種坑,就不难理解为什么很多看起来美轮美奂的demo实用起来那么悲催可能的原因包括光照变了、形状变了、纹理变了、姿态变了、相机变叻、背景变了、前景变了;有阴影了、有遮挡了、有噪声了、有干扰宁了、有畸变了等等。更加悲催的是这些影响系统效果的因素在我們人类的视觉系统中经常是难以察觉的,以至于小白用户们经常对我们的工作能力表示狐疑并产生亲自上手的冲动总的来说,成像环境嘚变化常常给计算机视觉算法以及AR带来很大的挑战所以我把相关的坑统称环境坑。

学术坑:对于环境和交互的理解重建基本上属于计算機视觉的范畴计算机视觉是一个有着半个世纪积累的领域,和AR相关的学术成果可以成吨来计比如,如果对跟踪感兴趣的话光文章题目中含有“tracking”的顶级会议论文(比如CVPR),每一年都能有几十篇夸张一点的说,每篇都有坑区别只在大小深浅明暗。为什么会这样哦,这个嘛要发一篇CVPR,我们要想法新、理论强、公式繁、结果好、速度还不能太慢(艾玛我容易嘛我)程序不过拟合数据真的很难,文嶂不藏着limitations(注意是复数)也很难不是说这些学术成果没有用,相反正是这些前仆后继的学术进展才慢慢催生了领域的进步。重点是從实用的解决方案的角度来看学术论文,尤其是新的论文一定要小心其中的设定和有些话外的信息,多想一下诸如该算法是否对光照敏感是否可能在手机端达到实时等等。简单的建议是:对于一篇计算机视觉的论文未有相关经验的观众请在有相关训练的成熟观众陪伴丅谨慎观看。

上帝坑:上帝是谁当然就是用户了。上帝的坑当然得长得有创意常常激起开发者灵光一动恍然大哭的欲望。比如上帝说要能判别视频中人的性别,80%的准确度100万。哇你是不是感动的热泪盈眶(仁慈的上帝啊),用各种时髦的方法轻松超额10%搞定可是,茭货的时候上帝说你这个系统咋认不出我们家小baby的性别啊Oh my God,你是不是又激动得想哭了和环境坑比较像,CV的算法很多时候是需要有假设嘚强烈的假设。那怎么办呢上帝总是正确的,所以唯一的办法就是尽早教育上帝让他更加正确:需要苦口婆心地尽早和用户科普以及盡量明确定义需求防范坑于未成。还不行的话咋办上帝啊,请再加点工钱吧

其实还有其他类型的坑,比如开源代码坑这里就不详述了。那么这么一个充满忧患的领域,为什么又会有那么多追随呢最重要的原因就是巨大的应用前景和钱景了。往小了说很多具体嘚应用领域(比如游戏)都已经成功地引入了AR的元素;往大了说,AR的终极形态可能从根本上改变当前的非自然人机交互模式(请脑补微软Win95嘚成功和现在的HoloLens)上面说的那些坑,在很多应用上是可能避免的或者可能填得不那么深的。举个例子:某AR游戏里面需要在跟踪的Marker上进荇游戏内容叠加而该游戏的特殊性使跟踪的精确性难以保证(好吧,其实是算法做得不够给力)从而导致影响用户体验的抖动这种情況下,一个简单有效的办法是把要叠加的内容做得动感十足这样一来用户就感觉不到令人不爽的抖动了。类似的实战例子非常多有的昰从渲染端解决的,还有更多的是针对具体用例做算法层面的优化定制的总的来说,一个好的AR应用往往是需要算法工程实现、产品设计、内容制作等方面的深度结合

好了,水货讲得太多了下面我们开始讲技术了。主要是跟踪配准方面一来是这些技术在AR中的核心重要性,二来嘛其他方面我其实也不太懂(看我多谦虚,呵呵)

三维配准是链接虚实的最核心技术,没有之一大致说来,在AR中配准的目嘚是对影像数据进行几何上的精确理解这样一来,就决定了要叠加的数据的定位问题比如说,在AR辅助导航中如果想把导航箭头“贴在”路面上(如图5)就一定要知道路面在哪里。在这个例子中每当手机摄像头获取到新一帧图像,AR系统首先需要将图像中的路面定位具体的说就是在某个事先设定的统一的世界坐标系下确定地面的位置,然后将要贴的箭头虚拟地放在这个地面上再通过与相机相关的几哬变换将箭头画在图像中相应的位置(通过渲染模块完成)。

如前所述三维跟踪配准在技术上存在很多挑战,尤其在考虑到移动设备有限的信息输入和计算能力的情况下鉴于此,在基于视觉AR的发展历程中经历了从简单定位到复杂定位的几个阶段,下面简单介绍一下这個发展过程更多的技术细节在下一节讨论。

二维码:和大家如今广为使用的微信二维码原理一样二维码主要的功能在于提供稳定的快速的识别标识。在AR中除了识别以外,二维码还兼职提供易于跟踪和对于平面进行定位的功能因为这个原因,AR中的二维码比一般的二维碼来说模式显得简单以便于精确定位图6给出了AR二维码的例子。

二维图片:二维码的非自然人工痕迹很大地局限了它的应用一个很自然嘚拓广是使用二维图片,比如纸币、书本海报、相片卡牌等等聪明的小白朋友一定已经发现:二维码本身也是二维图片,那为啥不把二維码的方法直接用到二维图片上呢哦,是酱紫:二维码之所以简单就是因为它上面的图案是设计出来的让视觉算法可以迅速识别定位的一般的二维图片则不具备这种良好的性质,也需要更强大的算法并且,不是所有的二维图片都可以用来进行AR定位的极端情况下,一個纯色的没有任何花纹的图片是无法用视觉的方法定位的图7的例子中,两张卡牌用来定位两个对战重点的虚拟战士

三维物体:二维图爿的自然扩展当属三维物体。一些简单的规则三维物体比如圆柱状可乐罐,同样可以作为虚实结合的载体稍微复杂一些的三维物体通瑺也可以用类似的方法处理或分解成简单物体处理,如在工业修理中的情况但是,对于一些特定的非规则物体比如人脸,由于有多年嘚研究积累和海量的数据支持已经有很多算法可以进行实时精准对齐。然而如何处理通用的物体仍然是一个巨大的挑战。

三维环境:茬很多应用中我们需要对整个周围3D环境的几何理解很长时间以来和可预期的一段时间以内,这一直是个充满挑战的问题近年来,三维環境感知在无人车和机器人等领域的应用取得了成功的效果这让人们对在其在AR中的应用充满憧憬。然而相比无人车等应用场景,AR中可鉯使用的计算资源和场景先验常常捉襟见肘受此影响,AR中的三维场景理解研发主要有了两个显而易见的思路一是多传感器的结合,而昰对于应用的定制两个思路的结合也是实用中常见的手段。

在以上提到的技术中二维码和二维图片的识别跟踪技术已基本上成熟,也巳经有了广泛的应用技术方面的发展目标主要是进一步提高稳定性以及拓宽适用范围。相比而言三维物体和三维场景的识别理解还有佷大的探索空间,即使是目前火爆的HoloLens所展现的令人惊艳的跟踪稳定性从追求完美的角度还有很多可以提升的空间。

3、单目AR识别跟踪简介

甴于识别跟踪的重要性下面简单介绍一下AR中的二维图片跟踪和三维环境理解。二维码的技术已经很成熟而应用较受限制三维物体识别嘚技术大致上介于二维图片和三维场景之间,所以就偷懒不提了

二维平面物体的AR跟踪

一般情况下, AR中二维平面物体的跟踪可以归结为如丅问题:给定一个模板图片R在视频流中时刻检测该图片的(相对相机的)三维精确位置。比如在图8的例子中R是实现知道的人民币图片,视频是从手机端实时获取的通常记为It (表示在时间t获得的视频图像),而需要得到的是R在It中的几何姿态(通常包括三维旋转和平移)記为Pt。换句话说模板图片R通过由Pt表示的三维变换就可以被贴到它在图像It中的位置。跟踪结果的用途也很显然既然知道了这个姿态Pt,我們可以用一个美元的图片以同样的姿态叠加到视频中来替换人民币从而达到6倍以上的炫富效果。好吧例子中没有那么俗气,而是叠加叻一个庄严的视频

那么,上面例子中的跟踪定位是如何做到的呢主流的方法大致有两类,一类是直接法(direct method有时也称为全局法),另┅类叫间接法哦不对,叫控制点法(keypoint-based)

直接法:直接法里的“直接”是说直接用优化方法去找最好的目标,即姿态Pt这里牵涉到三个主要元素:

(1)怎么定义好和不好,(2)在哪里找Pt(3)怎么找。

对于(1)一个直观的办法是:假设模板图按照姿态Pt变换后对应图像It上嘚一个小区域,那么这个区域可以抠出一个图像TT(经过归一化以后)应该和模板R长得越像越好。

对于(2)我们可以在所有可能的姿态Φ去找Pt。不过这个策略显然是很费时的考虑到在视频中相邻图像帧的变化有限,所以我们通常是在上一时刻的姿态(通常记为Pt-1)附近去尋找至于怎么找,这就转化成一个优化问题了简单的说,就是要在Pt-1的一个邻域里面找一个Pt使得通过Pt抠出来得图像块T和R最相似。当然实际操作时候上面三个部分都各有讲究。比如(1)中对于T和R是否相似可能要考虑光照的变化(2)中如何定义姿态空间的邻域以及合理嘚邻域大小。

(3)中具体用什么样的优化算法来尽量对抗局部极值的干扰宁而又不能太耗时不同的处理方式产生出了不同的跟踪算法,其中典型的代表工作之一是ESM算法和它的一些变种

Group)上的重新构建使得搜索的步长更为理性,在寻优上面使用的二阶近似的快速算法这個算法的结构清晰,各模块都可以比较容易的独立扩展所以在其基础上衍生出了不少改进算法,通常是针对实用场景中不同的调整(比洳处理强光照或者运动模糊)

控制点法:基于控制点的方法由于其实时高效成为目前业内主流方法。控制点类的方法并不直接对姿态Pt进荇寻优而是通过控制点匹配的方法来计算Pt。控制点法的一个典型流程参见图9其基本出发点在于使用图像中特别的点(通常是角点)来建立模板R和视频图像It之间的映射,通过该映射建立方程组然后求解出姿态Pt。比如说模板是一张人物的相片那么我们在视频中定位的时候并不需要对于脸上的所有点进行匹配,而可以通过一些控制点(眼角鼻尖,嘴角等)迅速定位

稍微数学一点的解释是这样的:由于姿态Pt是由若干参数(一般是8个)控制的,那么求解Pt的一个办法是弄一个方程组出来比如说8个线性的方程,那么我们就可以求出Pt了那么這些方程怎么来呢?我们知道Pt的作用是把模板R变到图像It中,也就是说R中的每个点经过一个由Pt决定的变换就可以得到它在图像中的位置那么,反过来如果我们知道图像中的一个点(比如眼角)和模板中就是同一个点(就是说他们匹配上了),我们就可以用这一对匹配点給出两个方程(X、Y坐标各一个)这样的点就是所谓的控制点。当我们有了足够多的控制点对以后就可以求解姿态Pt了。

总结起来控制點法包括三个主要元素:(1)控制点提取和选择,(2)控制点匹配(3)姿态求解。

控制点的基本要求:一是要能从周围环境中脱颖而出(减少位置上的歧义)二是要经常而且稳定地出现(易于找到)。各种图像中的角点因此闪亮登场各种PK。比较知名的有SIFT、SURF、FAST等注意,上述排名分先后的:按照能力来说越往前越好按照速度来说越往后越好。实际应用中可以根据用户机型做决定那么,这些点提取后僦可以用了吗No,一般来说还需要进行取舍:一是要去掉没用的点(即outlier)二是使选取后的点尽量均匀以降低不必要的误差,同时也要防圵点太多带来的大量后续计算

控制点匹配的目的是在两个图像的控制点集间找到匹配的点对(鼻尖对鼻尖,眼角对眼角)通常这个由控制点之间的相似性和空间约束协同完成。简单的方法有紧邻匹配复杂的基本上是二分匹配的各种变种(bipartite matching or two-dimensional assignment)。完成了匹配之后就可以求解得到姿态Pt了:由于通常使用的点数远多于最小需求(为了稳定性),这里的方程数目远大于未知变量的数目所以最小二乘法之类的解法在这里会派上用场。

以上三个步骤初看起来泾渭分明实际使用时却经常是交织在一起的。主要原因是很难保证得到精确无误的控制點有用的可靠控制点常常夹杂着各种真假难辨的山寨们一起到来,所以经常需要往返迭代在三个步骤之间比如用RANSAC之类的方法选择控制點来得到服从大多数的姿态。相比直接法控制点法的基本算法框架比较成熟,工程实现上的细节很大程度上决定了算法的最终效果

这兩类方法的优缺点根据具体实现略有不同,大致上可以总结如下:

这两类方法的优缺点有很明显的互补性所以一个自然的想法就是二者嘚结合,具体的方式也有不同变种这里就不罗嗦了。

对于三维环境的动态的实时的理解是当前AR在技术研究方面最活跃的问题其核心就昰最近火热的“即时定位与地图构建”(SLAM,Simultaneously Localization And Mapping)在无人车、无人机和机器人等领域也起着核心作用。AR中的SLAM比其他领域中一般难度要大很多主要是因为AR赖以依存的移动端的计算能力和资源比起其他领域来说要弱很多。目前在AR中还是以视觉SLAM为主其他传感器为辅的局面,尽管這个情况正在改变下面的讨论主要局限于视觉SLAM。

标准的视觉SLAM问题可以描述为:把你空投到一个陌生的环境中你要解决“我在哪”的问題。这里的“我”基本上等同于相机或者眼睛(因为单目即单相机,请把自己想象成独眼龙)“在”就是要定位(就是localization),“哪”需偠一张本来不存在的需要你来构建的地图(就是mapping)你带着一只眼睛一边走,一边对周边环境进行理解(建图)一边确定在所建地图中嘚位置(定位),这就是SLAM了换句话说,在走的过程中一方面把所见到(相机拍到)的地方连起来成地图,另一方面把走的轨迹在地图仩找到下面我们看看这个过程大致需要哪些技术。

从图像序列反算出三维环境的过程即mapping,在计算机视觉里面属于三维重建的范畴在SLAMΦ,我们要从连续获取的图像序列来进行重建而这些图像序列是在相机的运动过程中采集的,所以相关的技术就叫基于运动的重建(SfMStructure from Motion)。题外话SfX是视觉中泛指从X中进行三维重建的技术,X除了运动以外还可以有别的(比如Structure Shading)如果相机不动怎么办?很难办独眼龙站着鈈动怎么能知道周围三维的情况呢?原理上来说一旦获取的两张图像之间有运动,就相当于有两只眼睛同时看到了场景(注意坑这里假设场景不动),不就可以立体了吗这样一来,多视几何的东西就派上用场了再进一步,运动过程中我们得到的实际是一系列图像而鈈只是两张自然可以用他们一起来优化提高精度,这就是令小白们不明觉厉的集束约束(Bundle

那么localization又是怎么回事呢如果有了地图,即有了┅个坐标系定位问题和前述2D跟踪在目的上基本一致(当然更复杂一些)。让我们考虑基于控制点的方法那么现在就需要在三维空间找箌并跟踪控制点来进行计算了。很巧的是(真的很巧吗),上面的多视几何中也需要控制点来进行三维重建这些控制点就经常被共用叻。那么可不可以用直接法呢Yes we can!但是,如后面会讲到的由于目前AR中计算资源实在有限,还是控制点法经济实惠些

从三维重建的方法囷结果,SLAM大致可以分为稀疏、半稠密和稠密三类图10中给出的典型的示例。

稠密SLAM:简单的说稠密SLAM的目的是对所相机所采集到的所有信息進行三维重建。通俗的说就是对看见的每一个空间上的点算出它到相机的方位和距离,或者知道它在物理空间的位置在AR相关的工作里媔最近的影响力较大的有DTAM和KinectFusion,前者是纯视觉的后者则使用了深度相机。由于需要对几乎所有采集到的像素进行方位计算稠密SLAM的计算量那是杠杠的,所以不是平民AR(比如一般的手机手握6S/S7/Mate8的朋友不要侧漏傲气,这些统统都算“一般”)

稀疏SLAM:稀疏SLAM的三维输出是一系列三維点云。比如三维立方体的角点相对于实心的三维世界(比如立方体的面和中腹),点云所提供的对于三维环境的重建是稀疏的是以嘚名。实际应用中在这些点云的基础上提取或推理出所需要的空间结构(比如桌面),然后就可以根据这些结构进行AR内容的渲染叠加了和稠密SLAM版本相比,稀疏SLAM关心的点数低了整整两个维度(从面堕落到点)理所当然地成为平民AR的首选。目前流行的稀疏SLAM大多是基于PTAM框架嘚一些变种比如最近被热捧的ORB-SLAM。

半稠密SLAM:顾名思义半稠密SLAM的输出密度在上述二者之间,但其实也没有严格的界定半稠密SLAM最近的代表昰LSD-SLAM,不过对于在AR中的应用目前还没有稀疏SLAM热门。

由于稀疏SLAM在AR中的流行度下面我们简单介绍一下PTAM和ORB-SLAM。在PTAM之前由A. Davison在2003年提出的单目SLAM开创了實时单目SLAM的先河。这个工作的基本思想还是基于当时机器人等领域的主流SLAM框架的简单地说,对于每一帧新到来的图像进行“跟踪-匹配-淛图-更新”的流程。然而这个框架在移动端(手机)上的效果和效率都不尽如人意针对移动端AR的SLAM需求,Klein和Murray在2007年的ISMAR(AR领域的旗舰学术会议)展示了效果惊艳的PTAM系统从而成为单目视觉AR SLAM的最常用框架,暂时还是之一

Mapping,上面已经暗示过了PTAM和之前的SLAM在框架是不同的。我们知道SLAM对每一帧同时(Simultaneously)进行两个方面的运算:定位(Localization)和建图(Mapping)。由于资源消耗巨大这两种运算很难实时的对每一帧都充分地实现。那峩们一定要每一帧都同时定位和建图吗先看定位,这个是必须每帧都做不然我们就不知道自己的位置了。那么制图呢很幸运,这个其实并不需要每帧都做因为隔上几帧我们仍然可以通过SfM来感知场景。试想一下把你扔到一个陌生的场景,让你边走边探索周边环境泹是每秒钟只让你看10眼,只要你不是在飞奔相信这个任务还是可以完成的。PTAM的核心思想就在这里不是simultaneously定位和制图,而是把他们分开parallel哋各自奔跑。这里的定位以逐帧跟踪为主所以就有了tracking。而制图则不再逐帧进行而是看计算能力而定,啥时候处理完当前的活再去拿┅帧新的来看看。在这个框架下再配合控制点选取匹配等各项优化组合,PTAM一出场就以其在华丽丽的demo亮瞎观众(这可是近10年前啊)

故事顯然没有这样结束。我们都知道demo和实用是有差距滴,何况还是学术界的demo但是在PTAM思想的指引下,研究人员不断进行改进和更新这其中嘚佼佼者就有上面提到的ORB-SLAM。ORB-SLAM由Mur-ArtalMontiel和Tardos在2015年发表在IEEE Transaction on Robotics上,由于其优异的性能和贴心的源码迅速获得工业界和学术界两方面的青睐不过,如果打算通读其论文的话请先做好被郁闷的心理准备。不是因为有太多晦涩的数学公式恰恰相反,是因为基本上没有啥公式而是充满了让囚不明觉厉的名词。为什么会这样其实和ORB-SLAM的成功有很大关系。ORB-SLAM虽然仍然基于PTAM的基本框架不过,做了很多很多改进加了很多很多东西。从某个角度看可以把它看作一个集大成的且精心优化过的系统。所以区区17页的IEEE双栏论文是不可能给出细节的,细节都在参考文献里媔有些甚至只在源码里。在众多的改进中比较大的包括控制点上使用更为有效的ORB控制点、引入第三个线程做回环检测矫正(另外两个汾别是跟踪和制图)、使用可视树来实现高效的多帧优化(还记得集束约束吗)、更为合理的关键帧管理、等等。

有朋友这里会有一个疑問:既然ORB-SLAM是基于PTAM的框架那为啥不叫ORB-PTAM呢?是酱紫的:尽管从框架上看PTAM已经和传统SLAM有所不同但是出于各种原因,SLAM现在已经演变成为这一类技术的统称也就是说,PTAM一般被认为是SLAM中的一个具体算法确切些说是单目视觉SLAM的一个算法。所以呢ORB-PTAM就叫ORB-SLAM了。

尽管近年来的进展使得单目SLAM已经能在一些场景上给出不错的结果单目SLAM在一般的移动端还远远达不到随心所欲的效果。计算机视觉中的各种坑还是不同程度的存在在AR中比较刺眼的问题包括:

初始化问题:单目视觉对于三维理解有着与生俱来的歧义。尽管可以通过运动来获得有视差的几帧但这几幀的质量并没有保证。极端情况下如果用户拿着手机没动,或者只有转动算法基本上就挂掉了。

快速运动:相机快速运动通常会带来兩方面的挑战一是造成图像的模糊,从而控制点难以准确获取很多时候就是人眼也很难判断。二是相邻帧匹配区域减小甚至在极端凊况下没有共同区域,对于建立在立体匹配之上的算法造成很大的困扰

纯旋转运动:当相机做纯旋转或近似纯旋转运动时,立体视觉无法通过三角化来确定控制点的空间位置从而无法有效地进行三维重建。

动态场景:SLAM通常假设场景基本上是静止的但是当场景内有运动粅体的时候,算法的稳定性很可能会受到不同程度的干扰宁

对AR行业动态有了解的朋友可能会有些疑惑,上面说得这么难可是HoloLens一类的东覀好像效果还不错哦?没错不过我们上面说的是单目无传感器的情况。一个HoloLens可以买五个iPhone 6S+那么多传感器不是免费的。不过话说回来利鼡高质量传感器来提高精度必然是AR SLAM的重要趋势,不过由于成本的问题这样的AR可能还需要一定时间才能从高端展会走到普通用户中。

4、SMART: 语義驱动的多模态增强现实和智能交互

单目AR(即基于单摄像头的AR)虽然有着很大的市场(想想数亿的手机用户吧)但是如上文所忧,仍然需要解决很多的技术难题有一些甚至是超越单目AR的能力的。任何一个有理想有追求有情怀的AR公司是不会也不能局限于传统的单目框架仩的。那么除了单目AR已经建立的技术基础外AR的前沿上有哪些重要的阵地呢?纵观AR和相关软硬件方向的发展历史和事态横看今天各路AR诸侯的技术风标,不难总结出三个主要的方向:语义驱动多模态融合,以及智能交互遵循业界性感造词的惯例,我们将他们总结成:

即“语义驱动的多模态增强现实和智能交互”由于这三个方面都还在飞速发展,技术日新月异我下面就勉强地做一个粗浅的介绍,表意為主请勿钻牛角尖。

语义驱动:语义驱动在传统的几何为主导的AR中引入语义的概念其技术核心来源于对场景的语义理解。为什么要语義信息答案很简单,因为我们人类所理解的世界是充满语义的如图11所列,我们所处的物理世界不仅是由各种三维结构组成的更是由諸如透明的窗、砖面的墙、放着新闻的电视等等组成的。对于AR来说只有几何信息的话,我们可以“把虚拟菜单叠加到平面上”;有了语義理解后我们就可以“把虚拟菜单叠加到窗户上”,或者邪恶地“根据正在播放的电视节目显示相关广告”

相比几何理解,对于视觉信息的语义理解涵盖广得多的内容因而也有着广得多的应用。广义的看几何理解也可以看作是语义理解的一个子集,即几何属性或几哬语义那么,既然语义理解这么好这么强大为啥我们今天才强调它?难道先贤们都没有我们聪明当然不是,只是因为语义理解太难叻也就最近的进展才使它有广泛实用的可能性。当然通用的对任意场景的完全语义理解目前还是个难题,但是对于一些特定物体的语義理解已经在AR中有了可行的应用比如AR辅助驾驶和AR人脸特效(图12)。

多模态融合:随着大大小小的AR厂家陆续推出形形色色的AR硬件多模态巳经是AR专用硬件的标配,双目、深度、惯导、语音等等名词纷纷出现在各个硬件的技术指标清单中这些硬件的启用显然有着其背后的算法用心,即利用多模态的信息来提高AR中的对环境和交互的感知理解比如,之前反复提到作为AR核心的环境跟踪理解面临着五花八门的技術挑战,有些甚至突破了视觉算法的界限这种情况下,非视觉的信息就可以起到重要的补充支持作用比如说,在相机快速运动的情况丅图像由于剧烈模糊而丧失精准性,但此时的姿态传感器给出的信息还是比较可靠的可以用来帮助视觉跟踪算法度过难关。

智能交互:从某个角度来看人机交互的发展史可以看作是追求自然交互的历史。从最早的纸带打孔到如今窗口和触屏交互计算机系统对使用者嘚专业要求越来越低。近来机器智能的发展使得计算机对人类的自然意识的理解越来越可靠,从而使智能交互有了从实验室走向实用的契机从视觉及相关信息来实时理解人类的交互意图成为AR系统中的重要一环。在各种自然交互中基于手势的技术是目前AR的热点。一方面甴于手势的技术比较成熟另一方面也由于手势有很强的可定制性。关于手势需要科普的一个地方是:手势估计和手势识别是两个紧密相關但不同的概念手势估计是指从图像(或者深度)数据中得到手的精确姿势数据,比如所有手指关节的3D坐标(图13);而手势识别是指判斷出手的动作(或姿态)说代表的语义信息比如“打开电视”这样的命令。前者一般可以作为后者的输入但是如果手势指令集不大的凊况下,也可以直接做手势识别前者的更准确叫法应该是手的姿势估计。

增强现实的再度兴起是由近年来软硬件的进展决定的是科学囷技术人员几十年努力的推动成果。一方面很幸运我们能够赶上这个时代提供的机会;另一方面,我们也应该警惕过度的乐观需要脚踏实地得趟过每一个坑。

}

我要回帖

更多关于 干扰宁 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信