Appleは、Live Speech、Personal Voice、Point and SpeakがiOSに導入されると約束

Appleは、Live Speech、Personal Voice、Point and SpeakがiOSに導入されると約束

  • Oligur
  • 0
  • vyzf
Appleは、Live Speech、Personal Voice、Point and SpeakがiOSに導入されると約束
  • ニュース
Appleは、ライブスピーチ、パーソナルボイス、ポイントアンドスピークがiOS 17に導入されると約束
Appleは、Assistive Access、Live Speech、Personal VoiceをiPadとiPhoneに導入します。
写真:Apple

WWDC23が待ちきれない?どうやらAppleも待ちきれないようで、iOS 17、iPadOS 17、macOS 14にほぼ確実に搭載される新機能の発表がすでに始まっている。

これらは障がいのある方を対象としており、Live SpeechとPersonal Voiceが含まれます。これにより、発話障がいのある方は、ユーザー自身の声を合成した音声で会話に参加できるようになります。

iOS 17ではAssistive Access、Live Speech、Personal Voiceが提供される

「本日、誰もが創作、コミュニケーション、そして好きなことをする機会が得られるよう、テクノロジーを誰もが利用しやすくしてきた当社の長い歴史を基に構築された素晴らしい新機能を発表できることを嬉しく思います」と、AppleのCEO、ティム・クックは述べた。

同社は火曜日に、認知、視覚、聴覚、移動アクセシビリティに関する今後の機能のプレビューを行った。

Appleは、話すことができない人や、時間の経過とともに発話能力が低下した人のためにLive Speechを開発しました。iPhone、iPad、Macユーザーは、言いたいことを入力するだけで音声で読み上げることができます。また、よく使うフレーズを保存しておき、ボタンを押すだけですぐに使えるようにすることもできます。

話す能力が低下している人は、パーソナルボイスを作成できます。トレーニングを行うことで、機械学習を利用して、ユーザーに似た音声を作成します。

Assistive Accessは、 iOSおよびiPadOSのユーザーインターフェースを簡素化します。新しいUIでは、高コントラストのボタンと大きなテキストラベルがグリッドベースのレイアウトで表示されます。テキストを好むユーザーは、行ベースのレイアウトを使用することもできます。

iOSおよびiPadOSの拡大鏡アプリに、検出モード「ポイント&スピーク」機能が追加されます。この機能は、カメラとLiDARスキャナーを使用して、ユーザーが指し示すテキストラベルを検出し、音声で読み上げます。これらの機能は、視覚障がいのあるユーザーが複数のテキストラベルが付いた物体を操作できるようにするためのものです。

「これらの画期的な機能は、多様なユーザーをサポートし、人々が新しい方法でつながることを支援するため、あらゆる段階で障害者コミュニティのメンバーからのフィードバックを取り入れて設計されました」と、Appleのグローバルアクセシビリティポリシーおよびイニシアチブ担当シニアディレクター、サラ・ヘリンガーは述べています。

近日公開

これらの発表は、デビューを控えているからではなく、5 月 18 日木曜日の世界アクセシビリティ啓発デーに合わせて行われました。

AppleはiOS 17、iPadOS 17、macOS 14でこれらが登場するとは明言していないが、タイミングは適切だ。これらの新しいオペレーティングシステムのアップグレードは、6月のWWDC23で発表され、初秋に一般公開される予定だ。