大規模言語モデルのセキュリティを確保 ツールキット「LLM Guard」が公開セキュリティニュースアラート

大規模言語モデルのセキュリティを向上させるオープンソースツールキット「LLM Guard」がGitHubで公開された。LLM開発時のセキュリティ課題の解消が期待される。

» 2023年09月25日 08時00分 公開
[後藤大地有限会社オングス]

この記事は会員限定です。会員登録すると全てご覧いただけます。

 コンピュータ情報サイトの「Help Net Security」は2023年9月19日(現地時間)、大規模言語モデル(LLM)のセキュリティ強化に向けたオープンソースツールキット「LLM Guard」が「GitHub」で公開されたと伝えた。

OSSのLLM Guardが公開された(出典:Help Net SecurityのWebサイト)

LLM GuardはAIセキュリティをどう変革するのか?

 このツールはMITライセンスの下、オープンソースソフトウェア(OSS)として公開されており、「ChatGPT」「Bard」「Claude」などさまざまな生成AI(人工知能)ツールで使用できる。

 2022年11月にChatGPTが登場してから、この技術が業務改善に大きな可能性を秘めていることを多くの企業が認識するようになった。こうした技術の導入を開始した企業の中には既に大きな成功を収めているものもある。しかし依然としてLLMを業務改善につなげられていない企業も存在する。LLM Guardはこうした企業を支援するために開発されたという。

 LLM GuardはLLMの入出力の双方に対して広範囲な評価器を提供する。このツールキットを使うことでサニタイズや有害な言語、データ漏えいの検出、プロンプトインジェクションやジェイルブレーク攻撃への防御などを講じられる。さまざまなサービスに利用できる他、本番環境への統合や展開が容易にできるように設計されている。

 LLM Guardを利用することでLLMを実装する際に問題になりがちなセキュリティリスクやコントロール、可視性の欠如などに対応できるようになる。

Copyright © ITmedia, Inc. All Rights Reserved.

注目のテーマ