米Appleが5月16日(現地時間)、iPhone/iPadユーザーのアクセシビリティに関する新機能を発表した。2023年後半以降の提供予定としている。
新機能は主に認知、視覚、聴覚、身体に障害を持つ人にフォーカスしたもの。認知障がいのあるユーザーをサポートする「Assistive Access」、発話を補助する「Live Speech」「Personal Voice」、拡大鏡の操作を簡単にする「Point and Speak」の4項目に分かれる。
Assistive Accessは認知的負担の軽減を目的に、必要最低限のアプリ、情報を表示できるようにする。ホーム画面に並ぶのはCalls(電話とFaceTime)、メッセージ、カメラ、写真、ミュージックのみで、通常のホーム画面のように多くのアプリアイコンやウィジェットは表示されない。アプリのレイアウトはグリッドベースか行ベースのどちらかを選択できる。
Callsにはよく利用する相手のアイコンと名前、メッセージには絵文字のみのキーボードや、ビデオメッセージを他者と共有できるオプションが用意される。カメラにはシャッターアイコン、写真はサムネイルがタイル表示される。ミュージックには再生/一時停止、再生中の楽曲などが表示される。いずれもアイコンや文字が通常より大きく、利用者に配慮したUIとなっている。
Live Speechは電話、FaceTime通話、対面での会話中に自分が話したいことをタイプすることで、その内容を読み上げてくれる機能。いわゆる筆談に相当するものだ。発話できないか徐々に発話能力を失っている、世界中の何百万人もの人々をサポートするために設計されたという。iPhone/iPadに加え、Macも対象となっている。
Personal Voiceは自分が話しているように聞こえる声をシンプルかつ安全に作成できる機能。iPhone/iPadでランダムに選ばれたテキストプロンプトのセットを読み、音声を15分間録音することで、Personal Voiceを作成できる。端末上の機械学習を使って、ユーザー情報のプライバシーとセキュリティを保護するという。
Point and SpeakはiPhone/iPadの拡大鏡に備わる機能の1つ。複数のテキストラベルが備わる対象物にiPhone/iPadのカメラを向けると、ユーザーが指し示したテキストラベルの内容が黄色い枠で囲われ、それと同時に音声で内容を読み上げてくれる。なお、Point and SpeakはiPhone/iPadのカメラやLiDARスキャナーなどで成り立つ機能だという。
Appleはこれまで一貫性のあるUIや製品作りに注力してきた企業で、ティム・クックCEO(最高経営責任者)も「テクノロジーを利用しやすくしてきた、われわれの長い歴史に基づく新機能の数々を発表した」とコメントしている。
アクセシビリティポリシーおよびイニシアティブ担当シニアディレクターのサラ・ヘルリンガー氏は「あらゆる段階で障がい者コミュニティのメンバーからフィードバックを受けてデザインされた」と述べており、Appleがさまざまな障害者を代表する地域団体と密接に協力したという。
従来からアクセシビリティーに関する機能が備わっているApple製品。新機能により幅広いユーザーを分かりやすくアシストできそうだ。
Copyright © ITmedia, Inc. All Rights Reserved.