iOS 13 では、カメラ アプリが複数のカメラとマイクから写真、ビデオ、オーディオ、深度、オブジェクトや顔などのメタデータを同時にキャプチャできる機能が導入されています。
Appleのドキュメントによると、複数のカメラからの写真と動画の同時撮影は、Apple A12 Bionicチップ以降を搭載したデバイスでサポートされています。例えば、前面カメラと背面カメラの出力を1つの動画ファイルに同時に撮影するには、iPhone XS、iPhone XS Max、iPhone XRスマートフォン、または2018年モデルのiPad Proが必要です。
RAW キャプチャと同様に、これは Apple 独自の標準カメラ アプリには搭載されていません。開発者が公式 API を使用してアプリに実装できるように、マルチカメラ キャプチャを提供しているだけです。

Halideのような人気カメラアプリがこの機能を採用すると予想されます。Appleは、この機能の仕組みを説明するために、前面カメラと背面カメラの両方のビデオフィードを合成するピクチャー・イン・ピクチャー撮影アプリのデモを行いました。ユーザーは、写真アプリでマルチカメラビデオを再生する際に、2つのカメラフィードを切り替えることができます。

ドキュメントによると、iOSデバイスに搭載された複数のマイクを設定して、キャプチャした音声を調整することもできるとのことです。マルチカメラキャプチャは、iOS 13におけるカメラキャプチャと写真セグメンテーションの幅広い進化の一部です。
例えば、iOS 13ではデバイス上の機械学習を活用し、撮影した写真に新しいセグメンテーションマットを提供します。写真アプリでは、このセマンティックセグメンテーションの恩恵をいくつかの興味深い方法で活用しており、例えば写真内の髪の毛、肌、歯を分離して撮影できます。
実際、この新機能は、実装を選択したサードパーティ製のカメラアプリにも搭載される予定です。ご想像のとおり、iOS 12のポートレートエフェクトマット(被写体全体を背景から分離するだけ)よりも、ポートレート写真がさらに美しくなります。
Darkroom のようなアプリには、被写体の髪の毛、肌、歯を個別に分離して、簡単に再描画したり調整したりできる機能があることは容易に想像できます。
iOS 13 のマルチカメラキャプチャはいかがですか?
この機能は何に使いますか?