iOS 26 では、ビジュアル インテリジェンス機能がインストール済みの iPhone アプリにまで拡張され、スクリーンショットを撮るだけでアプリに表示されるものについてさらに詳しく知ることができます。
Appleの幹部は、iOS 26で強化されたApple Intelligenceのビジュアルインテリジェンス機能がどのように動作するかをiPhoneでソーシャルメディアアプリを開き、様々な投稿をスクロールしながら実演しました。すると、素敵なジャケットを着た男性の投稿が偶然見つかりました。その投稿についてさらに詳しく知るために、彼は通常通りスクリーンショットを撮りました。
これにより、左下のスクリーンショットサムネイルに加えて、右下に新しいボタンが表示されました。ビジュアルインテリジェンスが働き始め、Googleの画像検索(いつものように)を使ってウェブ上で一致する結果をいくつか見つけました。
また、プロンプト インターフェースを表示して、ChatGPT が解決するクエリを記述することで、スクリーンショットした内容に関するより複雑な質問を作成することもできます。

Apple Intelligenceでは、現実世界のチラシやポスターからイベントを追加できるようになりました。そして今、この機能はアプリ内コンテンツにも適用されます。アプリのスクリーンショットを撮るだけで、AIがアプリ内のテキストや画像からイベントを検知すると、カレンダーに追加するオプションが表示されます。
最後に、ビジュアルインテリジェンスにより、システム全体の検索機能がアプリにも拡張され、インストール済みのアプリ全体でコンテンツを検索できるようになりました。Appleはまた、Liquid Glassと呼ばれる、ソフトウェアプラットフォーム全体で再設計されたユーザーインターフェースのプレビューも行いました。詳細については、Apple Newsroomとapple.com/iosをご覧ください。
Apple Intelligence: 進捗報告
AppleはApple Intelligenceの進捗状況についても報告しましたが、(予想通り)AI搭載Siriの登場は来年まで続くため、特に話題にすることはありません。Apple Intelligenceは今年のWWDCの目玉ではありませんが、iOS 26のApple Intelligenceやその他のアップデートは注目を集めるでしょう。

Apple Intelligenceが世界の他の地域にも拡大するにつれ、対応言語も増えていく予定です。また、Apple Intelligenceはより高性能で効率的なAIモデルを採用しており、動作速度が向上し、バッテリー消費も低減する可能性があります。

さらに、既存のApple Intelligence機能はシステムのより多くの部分で利用可能になり、AppleはFoundation Modelsと呼ばれる新しい開発者フレームワークを通じて、デバイス上で稼働する同じ大規模言語モデルへのアクセスを開放します。これにより、サードパーティ製アプリの開発者は、Appleが独自のAI機能を提供するために使用しているのと同じAIモデルをデバイス上で利用できるようになります。

Genmojiにも細かな改良が加えられており、例えば、音声または手書きプロンプトを使って、既存の絵文字2つを組み合わせて新しいカスタム絵文字を作成できるようになりました。Image Playgroundが利用できる場所が増え、新しい油絵のスタイルも追加されました。