規模が大きいものでは、選挙戦で利用される靴下人形があります。同記事によると、ロシア、韓国、オーストラリアの選挙戦で靴下人形が利用されたようです。
一般に、選挙戦の情報操作などは心理戦(サイオプ)と呼ばれます。サイオプは、人の心理などを突いて重要な情報を引き出すソーシャルエンジニアリングの適用分野ですが、靴下人形を使うことも多いようです。筆者が独自に調べる中で、「50人の米国在住の人形師」の存在がいくつかの事例に出てきているので、今後機会があれば記事で紹介したいと思います。
米Facebookは19年5月、30億件を超える偽アカウントを2018年10月〜2019年3月にかけて削除したと発表しました。それだけ多くの偽アカウントがあることは、かなり衝撃的ではないでしょうか。
靴下人形は自動化によるコスト低減という観点からは、攻撃側にとっては投資収益率の高い手法、防御側にとっては指数関数的な戦力投射ができる手法ということになります。
最近は、ディープラーニングを始めとしたAIが劇的な発展を遂げています。AIとそれを使うわれわれからみれば、人間の振る舞いとそれによって発生するデータこそが重要であり、誤解を恐れずに言うと、実際に人間がどのような意識でそれを行っているのかは重要ではなく、またそれを知ることは非常に難しいのです。
AIは悪意を認識できない、というのは最近のサイバーセキュリティのホットトピックです。AIは振る舞いとして定義された「攻撃」の検出はできますが、悪意があるかどうかを検知するのは難しい(悪意を知らない)のです。警察官は犯罪者を攻撃しますが、そこにはサイバーセキュリティの視点で語られる「悪意」は存在しないでしょう。
そこでポイントになるのが、先述した人間の反脆弱性です。ロジックで動くAIの脆弱性をカバーするには、意識や感情を持つ人間の力が必要なのです。
Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR