- ハウツー

画像:Antonio Cruz/Wikimedia Commons/D. Griffin Jones/Cult of Mac
目が見えなかったり、耳が聞こえなかったりするわけではないので、Apple のアクセシビリティ機能を確認したことがなく、それが生活を楽にするだろうと思っていないのであれば、驚くことになるかもしれません。
AppleはiOS 17にいくつかのアクセシビリティ機能を組み込み、さまざまな障害を持つ人々がiPhoneを思いがけない新しい方法で使えるようにしました。しかし、これらのツールは誰でも活用でき、特定の状況では驚くほど役立ちます。
すでに、ライブキャプションを利用して静かに動画を視聴したり、携帯電話を 1 つのアプリにロックして他人の覗き見を防いだり、心地よい海や森の音を再生したりといった機能が備わっています。
iOS 17では、5つのアクセシビリティ機能がさらに進化しました。Assistive Accessは、スマートフォンの機能をシンプルにし、使いやすくします。Live SpeechとPersonal Voiceを使えば、キーボードで入力しながら自分の声で話すことができます。Detection ModeとPoint and Speakは、iPhoneのカメラ操作をサポートします。
私たちの実践的なデモでは、これらの機能がどのような効果をもたらすかをお見せします。
Appleは今年初め、世界アクセシビリティ啓発デーに合わせて、これら5つの新しいアクセシビリティ機能をプレビューしました。これらの機能の動作を、こちらのビデオでご覧ください。
iOS 17がリリースされました。iPhone 15をご購入いただいた方は、すでにアップデートされています。そうでない場合は、「設定」>「一般」>「ソフトウェア・アップデート」からアップデートしてください。ダウンロード後、アップグレードには約20分かかる場合がありますので、開始するタイミングにご注意ください。
1. 補助アクセス

スクリーンショット:D. Griffin Jones/Cult of Mac
Assistive Access機能は、iPhoneの標準アプリの一部を最も基本的な機能にまで簡素化します。これにより、認知負荷を軽減しながら、大切な人と最新デバイスでつながりを保つことができます。
ジッターバグのような携帯電話のテレビCMを見たのを覚えています。高齢者向けに販売された折りたたみ式携帯電話で、数字が大きく、機能は限定的で使いやすいものでした。Assistive Accessは、2023年版のジッターバグのような携帯電話を再解釈したような印象です。

スクリーンショット:D. Griffin Jones/Cult of Mac
スマートフォンの多機能に圧倒されてしまうような知り合いがいる場合は、Assistive AccessをオンにしてiPhoneを使いやすくすることができます。Assistive Accessをオンにすると、iPhoneのユーザーインターフェースが一変し、メッセージ、通話、カメラなどの主要な機能のボタンが大きく表示されます。
この機能を有効にすると、写真撮影、通話、メッセージの送信がはるかに簡単になります。また、健康モニタリングアプリなど、他のアプリをインストールする必要がある場合でも、App Storeから入手できる通常のアプリはすべて有効にできます。
No.2:ライブスピーチ

スクリーンショット:D. Griffin Jones/Cult of Mac
声が出にくくなってきたら、Live Speechを使えば、対面でも通話中でもテキストを読み上げることができます。この機能を使うには、「設定」>「アクセシビリティ」>「Live Speech」(画面下部)の順にタップしてください。Live Speechをオンにして「お気に入りのフレーズ」をタップすると、よく使うフレーズのショートカットを作成できます。
その後は、iPhone のサイドボタンをトリプルクリックするか、コントロールセンターのアクセシビリティショートカットからライブスピーチをアクティブ化できます。
ポップアップのキーボードを使って入力し、「送信」ボタンを押すとiPhoneが読み上げます。長いフレーズの場合は、読み上げながら単語ごとにハイライト表示されます。「 お気に入りのフレーズ」をタップすると、ショートカットにアクセスできます。
No.3: 個人の声

スクリーンショット:D. Griffin Jones/Cult of Mac
パーソナルボイス機能は、ライブスピーチをベースに、自分の声で話せるようにしたものです。少し時間を取ってフレーズをいくつか読み上げるだけで、スマートフォンが後からあなたの声を再現してくれます。Appleはパーソナルボイスを、「最近ALS(筋萎縮性側索硬化症)と診断された方や、発話能力に徐々に影響を与える可能性のあるその他の疾患をお持ちの方など、発話能力を失うリスクのある」ユーザーのために開発しました。
ただし、他のアクセシビリティ機能と同様に、誰でも利用できます。設定 > アクセシビリティ > パーソナルボイスに移動し、 パーソナルボイスを作成 をタップしてください。静かな場所を見つけ、スマートフォンを顔から15cmほど離して話しかけてください。Appleによると、この作業には15分から最大1時間かかる場合があります。
パーソナルボイスの設定が完了したら、iPhoneをしばらく接続したままにしておいてください。録音された音声を処理した後に、合成音声がデジタル音声として再生成されます。その後、「ライブスピーチ」の下に「パーソナルボイス」というオプションが表示されます。
実際に使ってみると、私の声を録音していることがはっきりとわかります。確かに私の声に似ていますが、Siriの新しい高度な音声ほど感情豊かで表現力豊かではありません。ぜひご自身で聞いてみてください。
No.4: 検出モード

スクリーンショット:D. Griffin Jones/Cult of Mac
検出モードを使用すると、iPhoneのカメラを使って、人、ドア、家電製品、その他の物体など、周囲のものを識別できます。この機能はAppleの拡大鏡アプリ内で利用できます。iPhoneにまだインストールされていない場合は、App Storeから無料でダウンロードできます。
検出モードを使用するには、拡大鏡アプリを開き、右側にある四角い形の検出ボタンをタップします。左側にあるアイコンをタップして、検出機能をオンにします。

スクリーンショット:D. Griffin Jones/Cult of Mac
- 人物検出機能により、他の人とどのくらい近い位置に立っているかが表示されます。
- ドア検出機能は、ドアまでの距離、開け方、ドアに書かれている内容など、さまざまな情報を教えてくれます。ドアに近づくにつれて、触覚フィードバックとクリック音がより速く、より大きくなります。
- 画像の説明機能は、物体検出機能を使ってカメラが何に向けられているかを教えてくれます。私の場合、効果はまちまちでした。フローリングの家に住んでいる場合は、「Wood Processed(木材加工済み)」という表示が画面にずっと表示されることを覚悟しておいてください。テスト中、カメラを部屋中に向けているとしばらく更新されず、時々固まってしまうことがありました。しかし、うまく動作する時は実にうまく機能します。
No.5: 指差して話す

スクリーンショット:D. Griffin Jones/Cult of Mac
ポイント&スピークは検出モードと連携して動作します。検出モードでは、下のアイコン「ポイント&スピーク」をタップしてください。手をかざして何かを指さすと、iPhoneが読み上げてくれます。
例えば、オーブンの目盛りが見にくい場合、iPhoneが数字を読み上げてくれるので、ローストを焦がしたり、家を焦がしたりすることがありません。手を前にかなりはっきりと伸ばす必要がありますが、私が試した限りでは、Point and Speakはかなりうまく機能しました。
iOS 17のその他の機能と内容
iOS 17 のその他の優れた機能のマスターリストは、こちらをご覧ください。