Appleは、大規模な言語モデルを活用してiOS 18のSiriが複数ステップのタスクを自動化できるようにする会話型AIを構築していると報じられている。
The Information の新しいレポートによると、主な目標は、ショートカット アプリでカスタム自動化を手動で構築するのではなく、複数のアプリやサービスを必要とする複雑なタスクをユーザーが音声だけで実行できるようにすることです。
例えば、Siriは複数の写真を使ってGIF画像を作成し、iMessageで友人に送信できるようになります。SiriはAppleのショートカットアプリに使われている技術を使って、クエリに基づいたカスタムオートメーションを作成するようです。
記事によると、Appleは来年iOS 18でこれらのSiriの進歩を発表する予定だという。
もちろん、OpenAIのChatGTPは大規模言語モデルを普及させ、主流化させました。しかし、実のところ、これらのアルゴリズムは長年存在していました。
Siriは2011年のデビュー以来、ユーザーに代わって基本的なタスクを実行してきました。しかし、複数のコマンドを含むクエリは実行できません。
大規模な言語モデルがあれば、Siriは複雑なクエリを、よりシンプルな一連のアクションに解析し、それらを連鎖させることができます。つまり、このような機能の基盤となる技術は既に存在しているということです。必要なのは、複数のステップからなるコマンドを解析できる、よりインテリジェントで会話的な音声アシスタントだけです。
記事はさらに、Googleから引き抜かれたAppleのAI責任者、ジョン・ジャナンドレアが、大規模な言語モデルを使用して会話型AIを作成するために2019年にチームを結成したと指摘している。この作業には同社に「1日あたり数百万ドル」の費用がかかっているようだ。
iOS 17、iPadOS 17、macOS Sonoma の Siri には、いくつかの新機能が追加されています。
通常の「Hey Siri」の代わりに、より短い「Siri」呼び出しができるようになりました。音声アシスタントは、再起動することなく複数のリクエストに連続して応答できます。また、iPhoneのスタンバイモードでは、Siriによってリッチなビジュアル検索結果も表示されます。