首页>新闻>苹果资讯>苹果ARKit+导航 我们的未来出行随AR改变

苹果ARKit+导航 我们的未来出行随AR改变

2017-11-14
6917
来源:苹果汇

  在 2017 WWDC 大会上,苹果宣布  iOS 11 中全新的增强现实组件 ARKit,到现在,App Store 上已经有了大量基于 ARKit 打造的各种应用和应用内部的 AR demo 功能。


苹果ARKit+导航 我们的未来出行随AR改变


  今年 7 月份的时候,ARKit 平台加大对地图导航的支持度,很快就有开发者演示基于 ARKit 的实景增强导航,引发了大家对 ARKit 导航功能上的关注。现在,将苹果 AR 与导航结合在一起的应用正式落地,由第三方利用 ARKit 套件制作的 AR 导航—— ARCity 上架 iOS。

  ARCity 的基础功能是导航,和平时使用地图一样,用户拿着手机定位,搜索目的地,随后出现导航路线,此时只需要将摄像头开启进入 AR 导航模式,就可以实时在画面中看到各种箭头标识,用户直接跟着箭头走就可以了。类似的功能在别的地图 App 里也结合 ARKit 有所体现。

  根据开发方 Blippar 介绍,AR City 使用了 ARkit 中的 VIO(visual inertial odometry 视觉惯性里程计)功能,通过摄像头移动的画面来计算移动距离,能实现比 GPS 更精准的定位功能。

  而 ARCity 和 AR 的结合更为深入,它可以实时在画面上显示你所在的街道的名字,你离拐弯处的距离变化等等,这些信息都是“贴”着画面中的现实场景,所以即便你是一个路痴,也知道该怎么走。比传统的导航更为先进了。


  重要的是 ARCity 可以通过 ARKit 调用更丰富的地图信息,在界面中为用户标示出周围建筑物和商店的名称、信息、评价、价格等等。例如,用户可以用摄像头对准街边的饭店,画面即可显示出该饭店的名字,订餐电话以及评级等信息。

  不过目前这个功能只在伦敦市中心、加州山景城和旧金山三个地区可用,想要真的派上大用场,还得等它支持更多城市才行。

苹果ARKit+导航 我们的未来出行随AR改变


  ARCity 应用现在处在 BETA 阶段,还需要不断完善。先不说功能上,它在使用性上面临着目前所有 AR 应用都存在的尴尬,第一是极度耗电,第二是必须举着手机。由于导航 App 的性质,成熟的产品基本需要解决适应户外(使用便捷)、长时间启用(不耗电)、不妨碍步行或交通(语音模式)等问题。ARCity 等类似的 AR 导航显然还达不到理想。

  我们多次和大家讨论过,现阶段的 AR 技术处于 AR 发展的最初级阶段,ARKit 也是最初级阶段的其中组成部分,它还需要很长的发展时间才能接近我们想象的那样子。但这个平台的出现,以及 AR 的进步,绝对会让导航应用也迎来变革。

  在 iOS 系统下,ARKit 在导航层面主要是使用摄像头和运动数据来绘制用户移动时本地的地图。而平常所用 CoreLocation(定位服务)的工作是使用 WiFi 和 GPS 数据来确定位置,精度比较低。

  ARKit + CoreLocation 的解决方案,即是将高精度的 AR 与 GPS 数据相结合,它允许使用真实世界的坐标将元素放置在 AR 世界中,利用最近的位置数据点,并结合有关 AR 世界运动的知识,极大地提高了定位精度。虽然位置精度的改进目前还处于实验阶段,但在未来可能是最重要的组成部分。这些技术结合起来的潜力是巨大的,在许多不同的领域有着很多的应用。

苹果ARKit+导航 我们的未来出行随AR改变


  就比如 ARCity,只要它能解决一些技术上的限制,将成为很多人出行的好帮手,甚至驾车出行也可以看着它导航。不过,前提或许得是苹果先把 AR 眼镜做出来。所以其实 AR 眼镜的推出也是呼之欲出的,因为 AR 的进化要求交互方式的进化(一直举着手机左晃又摆的看太蠢了),所以必须跳出这方小小的手势触摸屏,催生交互平台也就是硬件设备的更新。

  在苹果 ARKit 之前,已经有不少企业在 AR 的地图应用上进行了大量摸索。今年的谷歌开发者大会上,谷歌推出的 Google Lens 就提供了类似的功能,在摄像头画面标示相关信息,你要知道,它已经是个完成品。而 Blippar 的 AR City 可以说在 iPhone 上完美的“复制”了 Google Lens 的功能,不过将其用在了导航这个方向。

  类似的导航在国内也有,号称解决最后一公里的“随便走”就是以增强实景导航为卖点。但我们得说,类似的功能在得到最重要的摄像头+系统级支持——比如苹果的深度摄像头 + ARKit,谷歌的 Google Lens + AR Core,将能得到更好的发展空间,更利于开发者往更深度、更细致的体验去做设计。

相关文章
  • 虽然苹果极力推进 但ARKit发展依然滞后

    苹果在去年WWDC 2017 上为我们带来了现实增强服务 ARKit ,当时包括小编在内的很多人都非常看好这一技术,认为 ARKit 对于硬件的低要求能够带来软件生态的爆发。事实上,即使是谷歌也承认了 ARKit 的强大,在2017年8月发布了和 ARKit 非常类似的 ARcore ,而放弃了自己研发多年的 Project Tango。那么在发布大半年之后,被寄予厚望的 ARKit 的表现怎么样呢?似乎不太乐观。

  • 苹果AR主管详解ARKit 2:从玩具变成工具

    6月6日,知名博客《大胆的火球》的作者 John Gruber 邀请苹果公司 AR 部门负责人 Mike Rockwell 和市场营销经理 Greg Joswiak 参加了一个脱口秀节目,三人讨论了不少和 AR、iOS 12 和 macOS 相关的问题,以下是 ARKit 的相关问答。

  • 苹果ARKit应用下载量已达1300万,多数是游戏

    苹果在iOS 11中正式推出了ARKit框架,允许开发人员基于增强现实为iPhone和iPad构建应用。现在iOS 11已经推出6个月了,应用分析公司SensorTower给出了一些关于ARKit应用受欢迎程度的数据。

  • ARKit 推出这么久,苹果自家 Apple Store 用上 AR 了吗?

    苹果喜欢 AR。蒂姆·库克说过:“我们无法想象没有它的生活,我们的新硬件中含有 AR 技术的设计,软件上 WWDC 发布的一套工具使得创建 ARKit 应用比以往任何时候都要容易。”不过令人惊讶的是,尽管苹果一直在强调 AR 成果,但迄今为止,苹果的在线和实体零售店基本上没有用上 AR。对此我们有所疑问:苹果将如何增强消费者的购物体验?目前的 AR 技术适用于零售环境吗?在讨论 Apple Store 体验时,区分在线商店网站(包括 Apple Sto...

  • ARKit 3 带来更逼真 AR,可让人物进入虚拟世界

    在 2019 WWDC 上,苹果官方宣布更新 ARKit 增强现实平台,最新的 ARKit 3 已经可以实现人物抓取、动作捕捉、多面部追踪以及同时使用前后摄像头等功能。ARKit 3 可以实时抓取人物,将人和虚拟形象结合在一起,让 AR 内容更逼真,几乎任何环境都能当做绿幕,开发者们也可以更容易地创造 AR 场景。动作捕捉是开发者实时使用移动和姿势作为 AR 体验的输入方式。使用一台摄像头实时捕捉人的动作,通过将身体位置和运动理解为一系列关节...