iPhone 16 のビジュアルインテリジェンスを使用して、場所や物体に関する情報を収集したり、周囲のアイテムを識別したり、周囲のテキストを操作したりする方法などを学びます。
Visual Intelligence は Apple Intelligence の一部であり、iPhone カメラを使用して周囲のオブジェクト、テキスト、場所などについて学習できます。
例えば、机の上の植物についてもっと知りたいと思ったら、iPhone 16を植物に向けるだけで、視覚知能を使って詳細情報を得ることができます。また、空港のラウンジで素敵なバックパックを見つけたら、視覚知能がウェブ検索を実行し、その商品の詳細や購入オプションを調べることができます。
さらに、iPhone をレストランなどの地元のビジネスに向けると、ビジュアル インテリジェンスによって営業時間、メニュー、テーブルを予約したりオンラインで注文したりするための簡単なオプション、連絡先情報、Web サイトのアドレスなどが表示されます。
また、海外にいる場合でも、ビジュアルインテリジェンスにより、わずか数ステップで建物や看板などのテキストを素早く翻訳し、要約することができます。
必要なもの
ビジュアルインテリジェンスは、Apple Intelligence がセットアップされ、iOS 18.2 以降を実行しているiPhone 16、16 Plus 、 16 Pro、16 Pro Maxで利用できます。
iPhone 15 Pro、15 Pro Max、またはそれ以前のiPhoneモデルには新しいカメラコントロールボタンが搭載されていないため、ビジュアルインテリジェンスは使用できません。ただし、簡単な代替手段がありますので、このチュートリアルの最後に説明します。
オブジェクトを識別してGoogleで検索する
Appleのビジュアルインテリジェンスは、Googleの技術を利用してiPhoneをかざしたものを検索し、類似アイテムを見つけるのに役立ちます。これは、AndroidスマートフォンやGoogleアプリのGoogleレンズに似ています。
- iPhone 16 のカメラコントロールをクリックして押したままにするか、長押しすると、ビジュアルインテリジェンスが開きます。
- 次に、写真を撮るときのようにiPhoneを被写体に向けます。被写体がフレーム内にきちんと収まったら、「検索」ボタンをタップします。写真を撮ってから「検索」をタップすることもできます。
- ビジュアルインテリジェンスがこのオブジェクトを検索し、数秒以内に関連性の高い結果を表示します。検索結果をタップすると対応するウェブサイトにアクセスできます。また、必要に応じて、小さなSafariアイコンをタップすると、フルブラウザでページを表示できます。
ChatGPTに質問してオブジェクトの詳細を知る
公園で美しい花を見つけて、もっと詳しく知りたくなった時を想像してみてください。あるいは、愛らしい犬に出会って、その犬種が気になった時を想像してみてください。こうした瞬間に、視覚知能は周囲の世界についての情報を瞬時に提供してくれます。
- iPhone をオブジェクトに向け、カメラコントロールをクリックして押し続けると、ビジュアルインテリジェンスが起動します。
- 画面上の「質問する」ボタンをタップします。
- ChatGPT は少し時間を取って、オブジェクトが何であるかを説明する返信をします。
- 追加の質問がある場合は、クエリ ボックスを使用して追加情報を尋ねてください。
いくつかの家庭用品でテストしたところ、必ずしも正しく認識されるわけではないことがわかりました。例えば、机の上に置いている小さな植物を認識できず、「役に立たない」と表示される代わりに、間違った情報が表示されました。これはさらにひどいです。重要な情報を頼りにする前に、必ず十分な調査を行ってください。
ビジネス、レストラン、ショップなどの場所に関する詳細情報を取得します
iPhone 16をレストラン、ショップ、有名な建物、または企業に向けると、ビジュアルインテリジェンスが営業時間、連絡先、場所などの詳細情報を表示します。米国に拠点を置く一部の企業では、評価やレビューの閲覧、予約、配達の注文も可能です。
- iPhone 16 のカメラコントロールボタンをクリックして押し続けると、ビジュアルインテリジェンスが起動します。
- 携帯電話をビジネスに向け、「カメラコントロール」をクリックするか、画面上のシャッターボタンを押すか、カメラのファインダーでビジネスの名前をタップします。
- ChatGPTに質問したりGoogle検索を実行したりするオプションに加えて、ビジュアルインテリジェンスは連絡先情報、営業時間、レストランのメニュー、道順などにアクセスするためのボタンを表示する場合があります。画面上の「スケジュール」「注文」「メニュー」「予約」などのボタンをタップするだけです。
物理的な空間でテキストを操作する
ビジュアルインテリジェンスは、店頭、バナー、パンフレットなどのオブジェクト上のテキストも分析できます。これにより、外国語の単語やフレーズを翻訳したり、長いテキストを要約したり、連絡先情報に基づいてアクションを実行したりできます。
たとえば、ビジュアルインテリジェンスは、企業の電話番号、住所、営業時間、または Web サイトを識別し、電話をかけたり、Apple マップで道順を取得したり、Web サイトにアクセスしたりするためのクイックアクションボタンを提供できます。
- iPhone 16 のカメラコントロールをクリックして押したままにすると、ビジュアルインテリジェンスが開き、携帯電話をテキストに向けることができます。
- カメラコントロールをもう一度クリックすると、ビジュアルインテリジェンスがテキストを解釈し、外国語のテキストを翻訳したり、Apple Intelligence を使用して要約したり、テキストを読み上げたり、カレンダーイベントや電子メールを追加したりするためのボタンが表示されます。
次に別の例を示します。
古いiPhoneをお持ちの場合はどうでしょうか?
iPhone 16シリーズに搭載された専用のカメラコントロールを使えば、視覚知能を使って現実世界にあるテキストや物体についてより深く理解することができます。しかし、カメラコントロールの機能自体は特に新しいものではありません。古いiPhoneやAndroidスマートフォンをお持ちの方は、視覚知能の機能をすべて活用する方法を以下にご紹介します。
Googleでオブジェクトを検索する: GoogleアプリでGoogleレンズを使用すると、基本的に同じ操作が行えます。また、アクションボタンや戻るボタンに画面上のものを検索する機能を割り当てることもできます。
ChatGPTにアイテムについて質問する: ChatGPTアプリ内で直接写真を撮って、そのアイテムについて詳しく知ることができます。Apple IntelligenceがインストールされているiPhone 15 Proまたは15 Pro Maxをお持ちの場合は、カメラを対象物に向け、「Hey Siri、ChatGPTを使って画面に何が写っているか教えて」と話しかけてください。
レストランや場所の情報を得るには:店名を見てウェブ検索するだけで十分です。ビジュアルインテリジェンスを使う方がウェブ検索よりも確かに便利ですが、ビジュアルインテリジェンスは全てのレストラン、ショップ、その他の場所で使えるわけではありません。いずれにしても、ウェブ検索を使う方が賢明です。
翻訳: Apple 独自の翻訳アプリまたは Google 翻訳内のカメラ オプションを使用して、周囲の外国語を翻訳します。
テキストの操作:写真、ファイル、メモなどの iOS アプリはすでに URL、電話番号、場所、メール アドレスを理解しており、画像やメモ内のテキストをタッチして押し続けると、関連するアクションを実行できます。
iPhone 16のビジュアルインテリジェンスについてどう思いますか?