このコーナーでは、テクノロジーの最新研究を紹介するWebメディア「Seamless」を主宰する山下裕毅氏が執筆。新規性の高い科学論文を山下氏がピックアップし、解説する。Twitter: @shiropen2
イタリアのNational Research Council of Italyに所属する研究者らが発表した論文「Scamming the Scammers: Using ChatGPT to Reply Mails for Wasting Time and Resources」は、詐欺師が送る詐欺メールとのやりとりをChatGPTにしてもらったらどうなるかを検証した研究報告である。悪意のあるメールに対抗するセキュリティツールとしてChatGPTを利用した。
インターネットの普及に伴い、詐欺メールが日常茶飯に発生している。そこで研究者らは、ChatGPTを使って適切な返信メッセージを生成すれば、詐欺メールの向こう側にいる詐欺師の時間を無駄に使わせ、詐欺メールを軽減させられると考えた。
実験では、詐欺師11人とやりとりを行った。詐欺メールが届くとその内容を直接ChatGPTに入力する。今回は手動だが、将来的には自動化を進めたいとしている。ChatGPTが生成した本文は、署名を追加する以外は一切変えず、返答に使用する。
また詐欺師とのメールのやりとりを長くするため、詐欺師が要求する内容(銀行口座、住所、電話番号など)を含むメッセージをChatGPTが生成した場合は、手を加え、個人情報を提供しないように指示する。さらに、人間らしさを演出するため、数分から数週間までをランダムに待ってから各メールに返信した。
結果は次のようになった。まず、2回でメールのやりとりが終わったのは11人中7人であった。その内3人はエラーで受信されなかった。詐欺師はテキストのパターン、文法的エラー、早すぎる返信によって、人間の相手がいない違和感に気が付いたと考えられる。
他の4人は10回以上のやりとりが行われ、最大18回を記録し、最大のやりとり日数は27日間に及ぶものとなった。27日間、詐欺師をだましたことになる。
1人の詐欺師からは、電話で話したいという要望があり電話番号を聞いてきた。別の詐欺師2人は口座を指定し、振り込むよう金銭を要求してきたり、特定の銘柄に資金を投資するように促したりなどがあった。この返答内容から、ChatGPTを人間と捉えた可能性を示唆した。
詐欺師側も学習モデルを用いてメールの生成や、相手メールをAIだと見破る処理などを行っている可能性も考えられる。
Source and Image Credits: Enrico Cambiaso and Luca Caviglione “Scamming the Scammers: Using ChatGPT to Reply Mails for Wasting Time and Resources.”(2023).
ChatGPTが国会にも登場、質問案を作成 岸田総理 vs.AI で答弁の比較も 誠実なのはどっち?
「GPT-4より強力なAIの開発を直ちに停止せよ」──公開書簡にマスク氏やウォズニアック氏が署名
Wi-Fiルーターの不正利用に新たな手口、警視庁が注意喚起 「従来の対策のみでは対応できない」
全員に管理者権限、パスワードは全部共通、脆弱性は放置…… ランサム攻撃受けた大阪急性期・総合医療センターのずさんな体制
ChatGPTの利用を社内で許可すべき? 懸念される情報漏えいリスクとはCopyright © ITmedia, Inc. All Rights Reserved.
Special
PR