AIを使って音声を合成する音声クローン技術が、人をだましたり偽情報を拡散させたりする目的で悪用される危険が強まっている。闇サイトでは、そうした悪用に手を貸すサービスも台頭しているという。
音声クローンを利用すれば本物そっくりの音声を合成することができ、ディープフェイク動画などと組み合わせて偽情報をもっともらしく見せかけられる。過去にはアメリカのバイデン大統領や女優エマ・ワトソンといった有名人の偽音声が出回ったこともあった。
そうしたツールを使って合成した音声は質が高く、本物か偽物かの区別がつきにくい。有名人の声で差別発言や暴力的な発言を拡散すれば、情報操作や情報かく乱に結び付くこともある。
サイバーセキュリティ企業の米Recorded Futureは、闇サイトでの会話を分析した結果、悪用目的の音声クローン利用に言及する内容が増えていると発表した。簡単に音声を合成できるAIプラットフォームの普及に伴い、それほどのスキルがなくてもサイバー犯罪に参入するのが容易になったという。
特に注目度が高いのは、文章を音声に変換できる米ElevenLabsの音声クローンプラットフォームだ。同製品の有料サービスを利用して、犯罪集団が有名人の音声をアップロードしたり、なりすましなどの犯罪に利用したりしていた形跡もあった。
Recorded Futureによると、闇サイトでは犯罪集団が独自の音声クローンツールを開発して提供する「サービスとしての音声クローン」(Voice Cloning-as-a-Service=VCaaS)も台頭。音声クローンを使った経営者のなりすましや、コールバック詐欺や音声フィッシング詐欺などに利用する手口も話題になっている。
実際、サイバーセキュリティ企業の米McAfeeが日本など7カ国で23年に実施した調査によれば「自分がAI音声詐欺に遭ったことがある」という回答は10%、「知人が詐欺に遭った」という回答は15%に上り、そのうち77%が実際に金銭被害に遭っていた。
「家族や友人を装って助けを求め、金銭をだまし取る特殊詐欺はAI音声クローン技術によってこれまで以上に容易になった」とMcAfeeは見ている。
ただし日本の場合「AI音声詐欺に遭った」という回答は自分が3%、知人が5%にとどまり、7カ国の中では最も少なかった。
この調査は7カ国で18歳以上の成人7054人を対象に実施。その過半数は、SNSやボイスメモを通じて自分の音声データを週に1回以上ネットで共有しているという。サイバー犯罪者はそうした声をコピーし悪用している。
McAfeeの調査によれば、音声クローンツールを利用することで最大95%の精度で特定の人物の音声を再現できることが分かった。回答者の70%は「本物かどうか識別できるか分からない」または「識別できないと思う」と答えていた。
Recorded Futureは他にも、企業幹部になりすまして従業員や取引先をだまし、多額を送金させる手口に音声クローンを利用する手口や、合成音声を使って銀行の音声による多要素認証を突破できる可能性も指摘している。
Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR