ITmedia NEWS > セキュリティ >
ニュース
» 2018年01月29日 07時35分 公開

AIスピーカーに乗っ取りの危険性 超音波悪用、早大が実験

超音波を使えば、AIスピーカーを最大10メートル離れた場所から第三者が操作できる可能性があることが、早稲田大の実験で分かった。

[産経新聞]
産経新聞

 音声でさまざまな指示を出せる「人工知能(AI)スピーカー」に対し、音声を超音波に変換する「パラメトリック・スピーカー」と呼ばれる機器を使って命令を出すと、最大10メートル離れた場所から第三者が操作できる可能性があることが27日、早稲田大の森達哉准教授(情報セキュリティー工学)らの実験で分かった。

画像 「パラメトリック・スピーカー」の超音波で、AIスピーカー(手前)を操作する様子を再現する男性

 AIスピーカーには利用者の声を聞き分ける機種もあるが、コンピューターで他人の声を再現する「音声合成技術」を使えば突破可能とみている。AIスピーカーの技術は今後、家電や自動車にも搭載されるため、乗っ取られれば事故といった事態につながる恐れもあるという。

 森准教授によると、パラメトリック・スピーカーは超音波を利用することで音声を限られた場所に飛ばせるように設計。これを使って離れた場所からAIスピーカーに指示をすると、周りにいる人には聞こえないまま操作できる。

copyright (c) 2018 Sankei Digital All rights reserved.