AI悪用の音声詐欺が世界で急増、被害者の8割は金銭被害もマカフィー調べ(2/2 ページ)

» 2023年05月18日 19時52分 公開
[熊谷ショウコITmedia]
前のページへ 1|2       

70%がクローン音声と本物の識別に「自信がない」

 AIツールの普及により、画像や動画、友人や家族の声を悪用することがこれまで以上に容易になった昨今。今回の調査では、詐欺師はAI技術を使って声のクローンを作り、困窮を偽ったボイスメールを送付、被害者の連絡先に電話をかけていることが明らかとなった。

 クローン音声と本物の音声が識別できるかについては、「識別できるかどうか分からない」(35%)と「識別できないと思う」(35%)を合わせた70%が「自信がない」と回答しており、音声クローニングによる詐欺が勢いを増す要因にもなっているという。

 マカフィー 日本・アジア地域チャネルマーケティング本部長の青木大知氏は「日本は他国に比べ音声データのオンライン共有率が低く、結果的にAIを悪用した音声詐欺の遭遇率も低い傾向にあるが、この現状はむしろ、今後、音声詐欺に遭遇する可能性が高いとも受け取れる」とコメント。McAfee Labsの調査では、AIボイスクローニングツールを利用してわずか3秒で85%の一致率を有する音声クローンを作成できることが分かっているという。

 「このようなAIを悪用した音声クローニング詐欺が横行しやすい現状を認識し、自分のアイデンティティーの共有に慎重になるとともに、音声詐欺の遭遇に備えた準備が必要だ」(同氏)

 AIを悪用した音声クローニングの詐欺から身を守るには、(1)家族や信頼できる親しい友人との間でのみ通用するパスワード(合言葉)を口頭で確認しておくこと、(2)知らない発信者からの情報に疑念を持つこと、(3)SNSでのクリックやシェアは慎重にすること、(4)各SNSが用意している個人情報保護サービスの設定を利用すること、などが有効としている。

 本調査は、MSIリサーチが4月13〜19日、世界7カ国の18歳以上の成人7054人を対象にインターネット上で実施。各国の対象者数の内訳は、米国1009人、英国1009人、ドイツ1007人、フランス1007人、インド1010人、日本1004人、オーストラリア1008人。

前のページへ 1|2       

Copyright © ITmedia, Inc. All Rights Reserved.