ARKit4で3D物体のマップ上への配置が可能に〜iPhone SEで顔トラッキングも
iOSデバイスのカメラ機能とモーション機能を統合し、アプリやゲームの中で拡張現実(AR)体験を生み出すフレームワークARKitの最新バージョンARKit4で、3Dオブジェクトのマップ上への配置や、iPhone SE(第2世代)などのA12 Bionicチップ搭載デバイスで顔トラッキングが可能となりました。
マップ上で正確な3Dオブジェクトの配置が可能
WWDC20でARKit4の詳細が明かされましたが、開発者から内容に驚嘆する声が上がっています。
Appleは「マップ」のLook Around機能のため、専用車両や専用機器を背負った歩行者による画像収集作業を行っていますが、デバイスのローカライゼーション(カメラと3D世界との位置の照合)を行うための特徴点も同時に取得されていた模様です。
ARKit4では、Location Anchors機能で経度・緯度・標高を指定し、3Dオブジェクトのマップ上への配置が可能となります。
ARKit4は、機械学習を使用しカメラで取得された視覚情報とApple「マップ」からダウンロードしたローカライゼーションマップとの照合を行います。
Apple’s #WWDC20 presentation of #ARKit4 casually mentions that Apple Maps has a localization map that can accurately position your iPhone using the camera and machine learning. https://t.co/dM7flEOBR6
— Daniel Eran Dilger (@DanielEran) June 25, 2020
なおローカライゼーションは、オンデバイスで処理されるため、個人情報がAppleのサーバーに転送されることはありません。
LiDARスキャナもフルに活用
新型iPad Proに搭載されているのと同様のLiDARスキャナがiPhone12に採用されると噂されていますが、LiDARスキャナを使用すると、空間のスキャンを行うことなく、瞬時にバーチャルオブジェクトの3D世界への配置が行えます。
Apple demonstrated its new Depth and Scene Geometry APIs that use #LiDAR to rapidly map out and identify objects in a scene for rich AR experiences #ARKit4 #WWDC20 pic.twitter.com/rD2KQys4vk
— Daniel Eran Dilger (@DanielEran) June 25, 2020
またARKit4では、3Dオブジェクトを現実世界のオブジェクトの前か後ろどちらに置くかを選ぶことができ、より現実味のあるAR体験が可能となっています。
iPhone SEで顔トラッキングが利用可能に
ARKit4では、A12 Bionicチップ搭載のデバイスでも顔トラッキングが利用できるようになっており、TrueDepthカメラを非搭載のiPhone SE(第2世代)でもミー文字のアバターの表情を作ることなどが可能となります。
Source:Apple via AppleInsider
Photo:Apple
(lexi)