大規模言語モデルのセキュリティを向上させるオープンソースツールキット「LLM Guard」がGitHubで公開された。LLM開発時のセキュリティ課題の解消が期待される。
この記事は会員限定です。会員登録すると全てご覧いただけます。
コンピュータ情報サイトの「Help Net Security」は2023年9月19日(現地時間)、大規模言語モデル(LLM)のセキュリティ強化に向けたオープンソースツールキット「LLM Guard」が「GitHub」で公開されたと伝えた。
このツールはMITライセンスの下、オープンソースソフトウェア(OSS)として公開されており、「ChatGPT」「Bard」「Claude」などさまざまな生成AI(人工知能)ツールで使用できる。
2022年11月にChatGPTが登場してから、この技術が業務改善に大きな可能性を秘めていることを多くの企業が認識するようになった。こうした技術の導入を開始した企業の中には既に大きな成功を収めているものもある。しかし依然としてLLMを業務改善につなげられていない企業も存在する。LLM Guardはこうした企業を支援するために開発されたという。
LLM GuardはLLMの入出力の双方に対して広範囲な評価器を提供する。このツールキットを使うことでサニタイズや有害な言語、データ漏えいの検出、プロンプトインジェクションやジェイルブレーク攻撃への防御などを講じられる。さまざまなサービスに利用できる他、本番環境への統合や展開が容易にできるように設計されている。
LLM Guardを利用することでLLMを実装する際に問題になりがちなセキュリティリスクやコントロール、可視性の欠如などに対応できるようになる。
AIを狙ったサイバー攻撃の知られざる世界 専門知識なしでどう対処するか?
AIを使えば標的型攻撃が“超簡単”に 5つの要素で攻撃に対処せよ
MicrosoftのAI研究者が誤って38TBのデータを公開 AI時代に企業が気を付けるべきこととは
NISTのサイバーセキュリティフレームワークが大幅改訂 何が追加されるのか?Copyright © ITmedia, Inc. All Rights Reserved.