最新の研究でLLMがWebサイトを自動的にハッキングできることが明らかになった。自律的なWebサイトハッキングの可能性が実証され、防御と攻撃のバランスに影響を与える可能性がある。
この記事は会員限定です。会員登録すると全てご覧いただけます。
セキュリティ研究者らは2024年2月6日(現地時間)、論文を公開するWebサイト「arXiv」で、大規模言語モデル(LLM)がWebサイトを自律的にハッキングできるという内容の論文を発表した。この研究では関数呼び出しやAPI呼び出しを介してLLMによる複雑な操作が実現している。
arXivには以下の論文が公開されている。
論文によると、この研究ではLLMエージェントが自律的にWebサイトをハッキングできることが示されており、特に「GPT-4」が優れた成果を挙げているという。
研究者らが検証のために開発したシステムのソースコードはわずか85行だとされている。実験にはGPT-4や「GPT-3.5」、幾つかのオープンソースのLLMなどが使われており、特にGPT-4が優秀な成績を収めている(全体的なハッキング成功率は42.7%、最も有能なケースで73.3%)。GPT-3.5の全体的な成功率は2.7%(最も有能なケースで6.7%)で、複数のオープンソースモデルの成功率は全て0%だったという。
研究者らは仮に同じことを人の手で実施した場合の費用と比較し、LLMを使った方が大幅に低いコストでハッキングを実現できるとしている。
これまで可能性としては指摘されていたが、実際に動作するシンプルなツールを開発し、複数のLLMを使ってWebサイトのハッキング成功率を比較している点でこの論文は興味深い。研究者らが開発したツールは攻撃だけでなく、脆弱(ぜいじゃく)なWebサイトの検出にも利用できる。
Copyright © ITmedia, Inc. All Rights Reserved.