実際に、iPhone XのTrueDepthカメラシステムで収集された顔データを使って、自分の顔の3Dモデルを作成した開発者もいます。中には、自分の顔を3Dプリントすることに成功した人もいますが、その仕上がりには疑問符が付きます。
ビジュアルエフェクトアーティストのエリシャ・ハン氏は、短い動画の中で、TrueDepthカメラから収集したデータを用いて、自身の動きを模倣する3Dの浮遊する頭部を制作しました。ハン氏はiPhone Xのカメラを使用し、ARKitとXcodeを使ってそのデータを取得し、それを完全な3Dレンダリングに変換しました。
確かに素晴らしい出来栄えですが、この結果を実現するには視覚効果アーティストの努力が必要です。iPhoneのカメラで撮影された実際の画像は、それよりはるかに精度が低いのです。
リアルなモデルを作るには十分なポイントが収集できないため、データを滑らかにして顔らしく見せるにはかなりのエフェクトが必要です。ゲーム会社Hatchlingsの創設者、ブラッド・ドワイヤー氏は、TrueDepthカメラで収集した実際のフレームの様子を披露しました。
もう一つのスキャン画像です。少し修正しました。おそらく、この画像の方が「見ている」ものをより正確に表現しているでしょう。
なお、これは#TrueDepth カメラの1フレームです。より正確な深度マップを作成するには、複数のフレームをサンプリングする必要があるかもしれません。pic.twitter.com/yweJ7hBJ1U
— ブラッド・ドワイヤー {🏗} (@braddwyer) 2017年11月15日
この形式では、かなりブロック状になっています。
それでも、Appleのスマートフォンに搭載された最新技術を使えば、どれほど素晴らしい成果が達成できるかを示しました。開発者はこれらのAPIを活用できるため、今後開発者がどのような成果を上げていくのか、興味深いところです。