Appleは、iOS 19およびその他のソフトウェアアップデートとともに今秋iPhone、iPad、Mac、Apple Watch、Vision Proに搭載される新しいアクセシビリティ機能を発表した。

Appleは毎年、世界開発者会議(WWDC)に先立ち、秋にソフトウェアプラットフォームに導入される多数のアクセシビリティ機能をプレビューしています。Appleは2023年と2024年にも同様のプレビューを行っており、今年も例外ではありません。同社は本日、5月15日の「Global Accessibility Awareness Day 2025」に先立ち、iOS 19、iPadOS 19、macOS 16、watchOS 12、visionOS 3のソフトウェアアップデートとともに、今秋、すべてのユーザーに一般公開される新しいアクセシビリティ機能を発表しました。
発表では、アクセシビリティリーダーと呼ばれるシステム全体の新しい読み取りモード、Apple Watchへのライブキャプション機能の拡張、Vision Proヘッドセットの拡張ビュー、その他多数のアップデートについて言及されています。
本日発表されたその他の新しいアクセシビリティ機能には、App Store のアクセシビリティ栄養成分表示、Mac 用の新しい拡大鏡アプリ、新しい点字アクセス機能、システム全体のアクセシビリティ リーダーなどがあり、さらに、ライブ リスニング、バックグラウンド サウンド、パーソナル音声、車両モーション キューなどの既存の機能に対する一連のアップデートも含まれています。
Appleによると、これらの新機能はデバイス内機械学習と人工知能の最新技術を活用しているという。「Appleのエコシステムによって実現されるこれらの機能はシームレスに連携し、ユーザーが最も関心のあるものに新たな形で関わることができるようになります」と、Appleのグローバルアクセシビリティポリシー&イニシアティブ担当シニアディレクター、サラ・ヘリンガー氏は述べている。
アクセシビリティ栄養ラベル
Appleは2020年12月、App Storeにプライバシー栄養ラベルを導入し、アプリがユーザーのデータをどのように使用しているかを強調しました。そして今、このラベルをアクセシビリティ機能にも拡大しました。これらのラベルには、VoiceOver、音声コントロール、大きなテキスト、十分なコントラスト、動きの低減、字幕など、アプリやゲーム内のアクセシビリティ機能をリストアップした専用のセクションが設けられます。これらのラベルは、ユーザーがアプリをダウンロードする前に、そのアプリが自分に適しているかどうかを判断するのに役立ちます。
拡大鏡がMacに登場
iPhoneやiPadを拡大鏡のように操作し、近くにある物体を拡大表示したり検出したりできる多機能アクセシビリティツール「拡大鏡」が、Macに登場します。拡大鏡は、iPhoneをMacのウェブカメラとして使える既存の機能「連係カメラ」を活用しています。拡大鏡は2016年からiPhoneとiPadで利用可能です。macOS 16の新アプリ「拡大鏡」を使用するには、外付けUSBカメラまたはiPhoneの連係カメラが必要です。内蔵ウェブカメラはサポートされていません。
iPhoneと同様に、拡大鏡を使えばホワイトボードやスクリーンなどのオブジェクトを拡大できます。興味深いことに、拡大鏡はデスクビューに対応しています。これはmacOSのあまり知られていない機能で、連係カメラを使って、まるでオーバーヘッドカメラのように机の上から下を見たようなビューを表示します。デスクビューを使えば、拡大鏡は机の上の書類や本を自動で遠近補正しながら読むことができます。
「複数のライブ セッション ウィンドウを使用すると、ユーザーは、Web カメラでプレゼンテーションを視聴しながら、同時に Desk View を使用して書籍を読み進めるなど、マルチタスクを実行できます。」
Mac用拡大鏡は、キャプチャ、グループ化、保存して後で追加できるカスタムビューに加え、明るさ、コントラスト、カラーフィルターなどの画像コントロールもサポートしています。拡大鏡は、物理的なテキストを読みやすいカスタムフォーマットに変換する、もう一つの新機能であるアクセシビリティリーダーとも連携します。
アクセシビリティリーダーにようこそ
アクセシビリティリーダーは、iOS 19、iPadOS 19、macOS 16、visionOS 3 でシステム全体で利用できる新しい読み上げモードで、アプリ内や現実世界のテキストをより簡単に読み上げることができます。現実世界のテキストは、アクセシビリティリーダーと拡大鏡機能の統合によって実現されており、拡大鏡機能により、紙の書籍、レストランのメニュー、レシートなどのテキストを操作できます。アクセシビリティリーダーは、フォント、色、間隔など、テキストをカスタマイズするための幅広いオプションをサポートしています。また、音声コンテンツ機能もサポートしており、デバイスがテキストを読み上げるのを聞くことができます。
Apple Watchのライブキャプション
iPhone、iPad、MacでFaceTimeなどのボイスチャットの音声をリアルタイムで文字起こしできる機能「ライブキャプション」が、あなたの手首に登場します。watchOS 12のリアルタイムライブキャプションは、iPhoneをリモートマイクに変えてAirPodsに直接音声をストリーミングできる既存の機能「ライブリスニング」と連携します。
ライブキャプションは、iPhoneが聞き取った音声を手首の上で自動的に文字起こしします。Apple Watchはライブリスニングのリモコンとなり、セッションの開始、停止、再開などの操作が可能です。ライブリスニングは、AirPods Pro 2で利用可能な補聴機能を含むAppleの聴覚ケア機能にも対応しています。
点字アクセスのご紹介
iPhone、iPad、Mac、Vision Proの既存の点字機能は、デバイスの画面またはBluetooth対応の点字ディスプレイへの直接点字入力をサポートしており、読書や操作をサポートします。iOS 19、iPadOS 19、macOS 16、visionOS 3の新しい点字アクセス機能を使用すると、デバイスはフル機能の点字メモ作成ツールとしてだけでなく、点字スクリーン入力または専用の点字デバイスで入力してアプリを起動できるアプリランチャーとしても機能します。
Braille Accessを使用すると、数学や理科の授業で一般的に使用される点字コードであるNemeth Brailleを使った計算を実行できるほか、Braille Ready Format(BRF)ファイルをインポートして、点字対応デバイスで作成された書籍やファイルを読むこともできます。AppleはLive Captionsとの統合についても言及しており、これにより点字ディスプレイ上で会話をリアルタイムで直接書き起こすことができます。
Vision Proの視覚アクセシビリティの強化
Vision Proのオーナーで、視覚障碍者や弱視の方は、visionOS 3でシステム全体で改善されたズーム機能をきっと気に入っていただけるでしょう。この機能により、現実世界のあらゆるものを拡大表示できます。VoiceOverのライブ認識機能は、デバイス上の機械学習を活用し、周囲の状況の説明、物体の検索、文書の読み上げなど、様々な機能を提供します。Appleはまた、開発者がヘッドセットのメインカメラにアクセスして、対面でのアシスタント機能を提供するための新しいAPIも提供しています。Appleは、この機能は「Be My Eyes」などのアプリでの視覚的解釈に非常に役立つと述べています。
アクセシビリティの改善
上で概説した新しいアクセシビリティ機能に加えて、iOS 19 および今秋リリースされるその他のアップデートでは、既存の機能に多数の機能強化がもたらされます。
バックグラウンドサウンド:切り裂くような海の波の音やホワイトノイズなど、様々なバックグラウンドサウンドを再生するこの機能に、EQ設定と、一定時間後に再生を停止する待望のオプションが追加されました。これは、就寝時にバックグラウンドサウンドを使用するものの、選択したサウンドを一晩中再生したくない人にとって非常に便利です。Appleによると、この機能は耳鳴りの症状に効果があると感じる人もいるようです。
パーソナル音声:この機能はより高速になり、AI を活用して「録音された 10 個のフレーズのみを使用して、1 分以内に、よりスムーズで自然な音声を作成」できるようになりました。スペイン語 (メキシコ) のサポートも開発中です。
車両モーションキュー:車内でiPhoneを操作しても吐き気を催さないこの機能がMacに登場します。画面上のアニメーションドットをカスタマイズするオプションも追加されました。
アイトラッキング: iPhoneとiPadのアイトラッキング機能により、スイッチまたはホールド(画面を静止)を使って選択操作を行うことができます。新しいキーボードホールドタイマー、スイッチ入力時の手順の削減、そしてiPhoneとVision ProでのQuickPath入力の有効化により、アイトラッキング機能を使ったキーボード入力がよりスムーズになります。
ヘッドトラッキング: Apple はヘッドトラッキングの精度と信頼性を向上し、頭の動きで iPhone と iPad を「より簡単に制御」できるようになると述べています。
スイッチ コントロール: iOS 19、iPadOS 19、visionOS 3 のスイッチ コントロールでは、脳コンピュータ インターフェイス (BCI) がサポートされるようになり、脳信号を使用してデバイスを制御できるようになりました。
Assistive Access: tvOS 19 では、簡素化されたメディア プレーヤーを備えた新しいカスタム アプリが導入され、開発者は新しい Assistive Access API を利用できるようになります。
ミュージック ハプティクス:音楽をハプティクスで体験できる iPhone 専用のこの機能は、iOS 19 で新しいカスタマイズ オプションを提供します。たとえば、ボーカルのみにハプティクスをオンにしたり、タップ、テクスチャ、振動の強度を変更したりできます。
音声認識:この機能により、誰かがあなたの名前を呼んでいるかどうかを認識できるようになりました。
音声コントロール:この機能により、iCloud経由でデバイス間で語彙を同期できるようになります。また、サポート言語が韓国語、アラビア語(サウジアラビア)、トルコ語、イタリア語、スペイン語(ラテンアメリカ)、中国語(台湾)、英語(シンガポール)、ロシア語に拡大されます。
ライブキャプション:英語 (インド、オーストラリア、英国、シンガポール)、中国語 (中国本土)、広東語 (中国本土、香港)、スペイン語 (ラテンアメリカ、スペイン)、フランス語 (フランス、カナダ)、日本語、ドイツ語 (ドイツ)、韓国語のサポートが拡大しています。
CarPlayの大きなテキスト、アクセシビリティ設定の共有
Appleによると、CarPlayユーザーは新しい「大きな文字」オプションをオンにすることで、画面上の文字を大きくして読みやすくすることができるようになるとのことです。また、CarPlayのサウンド認識機能は、赤ちゃんの泣き声や、クラクションやサイレンなどの外の音を知らせてくれます。
最後に、アクセシビリティ設定を他の iPhone または iPad と一時的に共有できるようになります。これは、友人のデバイスを借りたり、カフェなどの公共キオスクを使用したりする場合に役立ちます。