Mac

アップル、拡張現実マッピング技術の特許を取得

アップル、拡張現実マッピング技術の特許を取得

Apple特許8400548(図面001)

Appleは火曜日、拡張現実(AR)、インターネットの力、そしてスマートデバイス通信を統合する技術に関する特許を取得しました。同社のARにおける重要な構成要素は、現実世界のオブジェクトを認識し、共有データのマッピングや注釈付けに有用な3D表現を構築するシステムです。2010年に出願されたこの特許は、「多機能デバイス向けの同期型インタラクティブARディスプレイ」と題されています。

一つの潜在的な用途として、iOSデバイスのカメラで回路基板を撮影する。画像の上に重ねたレイヤーが部品を識別し、チーム間でテキスト、ウェブリンク、さらには画像などの注釈を交換できるようにする。しかし、これはAppleが思い描くモバイルARの未来のほんの一部に過ぎないのだ…。

Apple の米国特許番号 8,400,548 は、拡張現実について教えてくれます。

デバイスは、タッチセンサー付きの面上で、現実世界の物理環境のライブビデオを受信できます。ライブビデオ内で1つまたは複数のオブジェクトを識別し、オブジェクトに関連する情報レイヤーを生成することができます。

いくつかの実装では、情報レイヤーには、ユーザーがタッチセンサー面を通じて作成した注釈を含めることができます。情報レイヤーとライブビデオは、デバイスのディスプレイに組み込むことができます。

Apple が提案した技術では、ライブ画像にデータを重ねるだけでなく、デバイスのみで作成された第 2 のディスプレイを作成できる可能性があります。

一例として、iDeviceユーザーがサンフランシスコの街並みを眺めているとします。1つのウィンドウにライブシーンが表示され、別のウィンドウにランドマークを含む3Dレンダリングが描画され、別のユーザーに送信されます。

Apple特許8400548(図面002)

受信されたデータは地図として使用され、2 人目も同じ場所を楽しんだり、送信者とコーヒーを飲みながら会ったりすることもできます。

デバイスが動いていることを示すデータを 1 つ以上のオンボード センサーから受信できます。

センサーデータは、動きによってビデオカメラの視野の視点が変化するのに合わせて、ライブビデオと情報レイヤーを同期するために使用できます。

ライブビデオと情報レイヤーは、通信リンクを介して他のデバイスと共有できます。

アップルの特許は、現実の画像とインターネットから取得したデータを組み合わせるグーグルのグラスに関する話題の中で発表された。

アップルが今回発表した技術は、同社が消費者のテクノロジーと現実のつながりに対する認識を深める取り組みとしては初めてのものではない。

これに先立ち、私たちはウェアラブルコンピューティングとiDevicesの活用方法に関する一連のAppleの特許について報告しました。

Milawo
Milawo is a contributing author, focusing on sharing the latest news and deep content.