ブルームバーグは今朝、AppleがTrueDepthカメラとは異なる、拡張現実機能と深度マッピングを向上させる背面3Dセンサーの開発に取り組んでいると報じた。
TrueDepthカメラは、3万個の赤外線ドットのパターンをユーザーの顔に投影することで、3次元メッシュを構築します。その後、構造化光技術を用いて各ドットの歪みを測定し、認証用の3D画像を構築します。
2019年のiPhoneに搭載予定の背面センサーは、周囲の物体に赤外線が反射するまでの時間を計算し、周囲の環境の3次元画像を作成するタイム・オブ・フライトと呼ばれる技術を活用すると言われている。
「同社はTrueDepthシステムを維持すると予想されるため、将来のiPhoneは前面と背面の両方に3Dセンサー機能を搭載することになるだろう」と報道は付け加えた。
背面センサーがあれば、より洗練された拡張現実(AR)アプリ、正確な深度マッピング、そしてより信頼性の高いトラッキングが可能になります。ARKitは現在、カメラからの生のフィードと搭載センサーからのモーションデータを統合して平面を検出し、現実世界に重ね合わせた仮想オブジェクトを追跡していますが、壁や窓などの垂直面の検出には苦労しています。
例えば、デジタルのトラが本物の椅子の後ろを歩くと、椅子はトラの後ろに表示され、錯覚が起こってしまいます。背面に3Dセンサーを搭載すれば、この問題は改善されるでしょう。
「構造化光方式ではレーザーを非常に正確に配置する必要があるのに対し、飛行時間型技術ではより高度な画像センサーを使用します」と、著者のアレックス・ウェッブ氏と中村裕司氏は述べている。「これにより、飛行時間型システムの大量生産が容易になる可能性があります。」
Appleは、Infineon、ソニー、STMicroelectronics、パナソニックなど、新型センサーの製造を手掛ける複数のサプライヤーと協議を開始したと報じられています。興味深いことに、Googleは2014年に発表されたProject Tangoの一環として、Infineonと深度マッピング技術の開発に取り組んできました。
将来の iPhone には前面と背面の両方に 3D センシング機能が搭載されるべきでしょうか?
コメントで意見を聞かせてください!