AIエージェント普及はリスクの転換点 OpenClawを例に防御ポイントを解説セキュリティニュースアラート

チェック・ポイント傘下のLakeraは、自律型AIエージェントの普及に伴うセキュリティリスクを指摘した。いよいよ実環境でAIエージェントが利用されるようになった今、企業が注意すべきガバナンスとは何か。

» 2026年02月17日 08時00分 公開
[ITmedia エンタープライズ編集部]

この記事は会員限定です。会員登録すると全てご覧いただけます。

 AIセキュリティ企業のLakeraは2026年2月12日、自律的に行動するAIエージェントの普及に伴う新たなセキュリティ課題について見解を公表した。オープンソースのAIアシスタント「OpenClaw」の広がりを例に、企業環境における権限管理と統制の在り方が大きな転換点を迎えていると警鐘を鳴らしている。

AIエージェント普及はリスクの転換点 企業の目指すべきガバナンス

 Lakeraは、AIエージェントが従業員の業務を代行する形で実環境に接続され始めている点を問題視している。電子メールやファイル、社内システム、開発環境などの基盤に接続されたAIは、従来のソフトウェアとは異なり、人間と同等の速度と権限で操作を実行し得る存在だ。Lakeraはこれによって攻撃対象領域が拡大し、従来型の防御モデルでは対応が困難になる可能性があると指摘している。

 LakeraのAIエージェントセキュリティ担当VPであるデイビッド・ハーバー氏は「OpenClawは提案だけでなく実際に行動するAIエージェントの姿を示した。課題は出力内容ではなく、どの範囲まで権限を委ねるかにある」と述べた。

 複数の研究者や報道機関は、OpenClawの設計やサードパーティー製スキル(拡張機能)を巡る懸念を指摘している。ワンクリックで処理が実行される設計や、悪意ある拡張機能の混入などが例として挙げられる。Lakeraは、こうした問題は単なる新種の脆弱(ぜいじゃく)性ではなく、AIが「操作レイヤー」として機能する構造的変化の現れだと分析する。ユーザー権限の範囲内であれば広範な操作が可能となるため、リンクやプラグイン、サプライチェーン由来のリスクが即時実行につながる恐れがあるとしている。

 Lakeraリサーチ部門責任者のマテオ・ロハス=カルーラ氏は「AIエージェントではデータがコードとして機能する。悪意あるスプレッドシートのセル一つが受信トレイ内のデータ全体の流出につながる可能性もある」と述べ、従来の対策では不十分だとの認識を示した。

 同社はワークフォースAIセキュリティを制御レイヤーとして位置付ける。注視する点として、利用中のAIツールと権限範囲の可視化、スキルやコマンド実行の高リスク操作としての管理、サードパーティー拡張機能の厳格な統制、外部コンテンツを信頼できない入力として扱う運用などを挙げた。この他、SaaS監査ログやリポジトリー履歴など既存ログを活用し、AIが実行した操作を把握することが重要だとしている。

 Lakeraは、AIエージェントが人間の権限の下でシステムに直接アクセスする環境が現実化していると分析する。安全な導入には利用状況の把握やアクセス制御、行動への安全対策の整備を並行して進める必要があると結論付けた。

Copyright © ITmedia, Inc. All Rights Reserved.

アイティメディアからのお知らせ

注目のテーマ

あなたにおすすめの記事PR