Mac

Apple、iOS 13開発者ベータ版でiPhone 11とiPhone 11 ProのDeep Fusionカメラ機能をテスト中

Apple、iOS 13開発者ベータ版でiPhone 11とiPhone 11 ProのDeep Fusionカメラ機能をテスト中

AppleはiOS 13を記録的なペースでアップデートしているが、その一部は新機能の追加のためだが、主にバグの修正のためだ。

しかし、だからといって、追加機能がまだ間近に迫っていないわけではありません。例えば、Appleが今年初めに開催した「イノベーションのみ」のイベントで、iPhone 11とiPhone 11 Proと同時に発表したDeep Fusionカメラ機能などです。Appleは以前から、この機能はiOS 13へのソフトウェアアップデートで後日リリースされると述べていましたが、現在はベータ版となっています。

The Vergeは本日、Apple が Deep Fusion の近々一般公開に向けてどのように取り組んでいるか、またこの機能によって Apple の最新主力スマートフォンに搭載されているすでに優れたカメラがさらに強化される仕組みについて概説したレポートを掲載しました。

Deep Fusion で撮影した写真の結果は、この記事の上部にある画像でご覧いただけます。

Deep Fusionは、「中~低光量」の画像に重要な機能です。また、完全にバックグラウンドで実行される機能で、iPhone 11/11 Proユーザーが外出先で写真を撮影している間、画像を最適化し、改善します。

レポートには、バックグラウンドでどのように動作するかについてのわかりやすい内訳が記載されています。

  1. シャッターボタンを押すまでに、カメラはすでに高速シャッタースピードで3枚のフレームを撮影し、動きを捉えます。シャッターを押すと、さらに3枚のフレームを撮影し、さらに1枚の長めの露出でディテールを捉えます。
  2. これら 3 つの通常ショットと長時間露光ショットが、Apple が「合成ロング」と呼ぶものに統合されます。これがスマート HDR との大きな違いです。
  3. Deep Fusionは、最もディテールが鮮明な短時間露光画像を選択し、合成した長時間露光画像と合成します。スマートHDRとは異なり、Deep Fusionはこれら2枚のフレームのみを合成し、それ以上の合成は行いません。また、これらの2枚の画像は、スマートHDRとは異なる方法でノイズ処理され、Deep Fusionに適した方法で処理されます。
  4. 画像はピクセルごとに4段階のディテール処理が施され、それぞれがディテールの量に応じて調整されます。空と壁は最も低い帯域、肌、髪、布地などは最も高い帯域です。これにより、2つの画像をどのようにブレンドするかについての一連の重み付けが生成されます。一方の画像からディテールを、もう一方の画像からトーン、色、輝度を取得します。
  5. 最終画像が生成されます。

報道によると、望遠レンズは主にDeep Fusionを使用し、Smart HDR機能は極めて明るいシーンでのみ有効となるとのことです。一方、標準広角レンズは、明るいシーンから中程度の明るさのシーンでは主にSmart HDRを使用し、中程度から低照度のシーンではDeep Fusionが作動します。超広角レンズはSmart HDRのみをサポートし、他の機能はサポートしていないため、Deep Fusionやナイトモードは使用されません。

暗い場所では、ナイトモードが常に起動し、主な機能になります。

報道によると、Appleは現在iOS 13のベータ版でこの機能をテストしている。ただし、このベータ版は開発者にもパブリックベータテスターに​​もまだ公開されていない。AppleはDeep Fusionを搭載した最初のベータ版を近日中に、おそらくiOS 13.2としてリリースするだろう。

Deep Fusion の登場を楽しみにしていますか?

Milawo
Milawo is a contributing author, focusing on sharing the latest news and deep content.