ITmedia NEWS > 企業・業界動向 >
ITmedia AI+ AI活用のいまが分かる

AIの攻撃をAIで防御、サイバーセキュリティの“いたちごっこ”最新事情よくわかる人工知能の基礎知識(2/4 ページ)

» 2020年05月22日 07時00分 公開
[小林啓倫ITmedia]

人間は音声合成にだまされる

 特定の企業や個人の情報端末に不正アクセスすることを目的とした標的型攻撃でも、AIを活用する例が出てきている。

 標的型攻撃では、ターゲットが持つさまざまな特徴に合わせて、攻撃内容が調整される。対象が企業であれば、実在する社員や部署の名前でメールを出したり、社内で使われる独特な言い回しをまねしたりといった具合だ。

 そうした攻撃に利用する情報(社員の名前や、彼らが使うアカウントのパスワードなど)を入手する際、「ソーシャルエンジニアリング」という手法が使われる場合がある。これはサーバなどに物理的な不正アクセスを行って情報を抜き取るのではなく、それを知る人物から情報を教えてもらうというものだ。具体的には、ターゲット企業が捨てたゴミを調べる、社員に成りすましてIT部門に電話し、パスワードを教えてもらうといった方法がある。

 NTTデータによれば、近年ソーシャルエンジニアリングによる被害が増えており、2013年から18年にかけて2倍以上増加しているという。この記事では、「AIやTTS(音声合成によるテキスト読み上げ)を駆使した音声クローン技術の発展により、その手法が巧妙化するとの見方」があるとされているが、フランスの保険会社Euler Hermesが、実際にそのような事件が起きたと発表している。

 それによれば、被害に遭ったのは英国の某エネルギー会社。彼らは企業版の振り込め詐欺にだまされてしまったそうだ。

 まず詐欺師は、このエネルギー会社の親会社であるドイツの某企業を装ったメールを送信し、そのメール内でハンガリーにある別の取引先企業に送金を行うよう指示。そして親会社のCEOそっくりの声を合成し、その声でエネルギー会社のCEOに電話をかけ、重ねて送金を命じた。この音声はドイツ風のアクセントや喋り方を完璧に再現したものだったため、エネルギー会社のCEOはすっかりだまされてしまい、言われるまま20万ユーロ(約2400万円)もの大金をハンガリーの会社に送金してしまった。このお金は、その後さらにさまざまな会社を経由し、行方がつかめなくなってしまっている。

 詐欺師は大胆にも、この送金の後、2回目の送金をエネルギー会社に要求してきた。そこでエネルギー会社のCEOが親会社に電話をかけ、詐欺であることが発覚したそうだ。

 米カリフォルニア大学バークレー校のジュリアナ・シュローダー氏は、同じ情報を文章で伝えた場合と、口頭で伝えた場合を比較し、情報の受信者が発信者に対して抱く感情に違いがあるかを調査した。すると音声で伝えたほうが、相手がより知的で、有能で、思慮深いと感じる傾向があると判明したそうだ。また米アラバマ大学バーミンガム校コンピュータサイエンス学部の研究では、人間の脳はよく似た人間の音声の聞き比べができない可能性があると指摘されている。この研究を指揮した、主任研究者のニテーシュ・サクセナ氏は、「人間は音声モーフィング(誰かの音声を別の人の音声そっくりに置き換える技術)を使用した攻撃に対し、根本的に脆弱な存在である可能性がある」と指摘している。音声によってより「人間らしさ」を獲得したAIが、ソーシャルエンジニアリングの強力な武器となっていくかもしれない。

Copyright © ITmedia, Inc. All Rights Reserved.