ITmedia NEWS > 社会とIT >
速報
» 2019年05月08日 13時25分 公開

Google I/O 2019:Google、発話障害者をAIでサポートする「Project Euphonia」

[佐藤由紀子,ITmedia]

 米Googleは5月7日(現地時間)、年次開発者会議「Google I/O 2019」の基調講演で、ALS(筋萎縮性側索硬化症)やパーキンソン病の患者など、発話が困難な人をAIでサポートするプロジェクト「Project Euphonia」を発表した。

 als 1

 ALS患者をサポートする米国の非営利団体ALS Therapy Development Institute(ALS TDI)やALS Residence Initiative(ALSRI)の協力の下、患者が一定のテキストを読み上げる音声データを収集し、発話障害のある人の発話を正しく聞き取るAIアルゴリズムの訓練に使っている。

 プロジェクトに協力しているALS患者のスティーブ・サイリング氏は、Googleが作った機械学習モデル訓練用ツールを使って、顔の表情でコミュニケートする方法をAIに教えている。

 als 2 顔の表情を言葉に“翻訳”させるよう機械学習モデルを訓練中

 サイリング氏はこの方法で、テレビでスポーツ観戦中、ひいきのチームがゴールを決めたらホーンを鳴らしたり、部屋の照明を消したりすることに成功している。

 一般的な音声AI同様、データが多いほどシステムの精度は上がる。Googleおよび協力団体は、障害を持つ人々にデータ提供を呼び掛けている。こちらから申し込める。

 Project Euphoniaは、Googleが長年従事しているアクセシビリティの取り組みの一環だ。昨年のGoogle I/Oでは、Gboardでのモールス信号入力機能や目の不自由な人用の音声アプリ「Lookout」を発表した。今年の2月には、耳の聞こえない人のための、会話をリアルタイムでテキストに変換するアプリ「音声文字変換」を発表した。

 今年のGoogle I/Oでは、Project Euphoniaの他に、スマートフォン上の動画や音声にリアルタイムで字幕を付ける「Live Caption」も発表した。


Copyright © ITmedia, Inc. All Rights Reserved.