2015年7月27日以前の記事
検索
コラム

「そのプロンプト、危険かも?」 生成AIの社内利用に潜む“落とし穴”とは(2/3 ページ)

国内外ですでに発生しているさまざまなAI関連トラブルを具体的に紹介しながら、企業が今すぐ整備すべき対策や、ガイドライン策定の考え方について、解説していきます。

Share
Tweet
LINE
Hatena
-

では、どうすればいいのか?──AIガイドライン策定のポイント

 AI活用によるトラブルを未然に防ぐには、組織としてのルールや運用方針、いわゆる「AI活用ガイドライン」の整備が不可欠です。

 ここでは、国内外の信頼性あるフレームワークやガイドラインを参考に、策定時に押さえておくべき実践ポイントを紹介します。

そもそも、何を参考にすればいいの?

 「ガイドラインを作ろう」と思ったはいいものの──

 最初にぶつかる壁は、「何をベースに、どう作ればいいのか?」ということではないでしょうか。

 ガイドラインを策定するうえで参考になる指針や基準は、すでに多く存在しています。日本でも経済産業省などがAI事業者ガイドライン等を提示していますが、正直なところ、抽象的な表現が多く、実務にどう落とし込めばよいか悩ましいという声が少なくありません。

 ここでは、実務に生かしやすい国際的なガイドラインをいくつかご紹介します。

OECD「AI原則(AI Principles)」

 経済協力開発機構(OECD)は、国際的なAIガバナンスの共通原則を2019年に策定。日本を含む加盟国が採択しており、「人間中心」「透明性」「説明責任」「安全性」などを柱とする原則は、多くのガイドラインの土台となっています。

NIST「AIリスクマネジメント・フレームワーク(AI RMF)」

 米国国立標準技術研究所(NIST)が2023年に公表したAI RMFは、企業がAIを安全かつ信頼できる形で設計・運用するための包括的な枠組みです。特に「ガバナンス体制の構築」「リスクの継続的評価」「組織内での役割分担」など、実装面で役立つ要素が豊富です。

ISO/IEC 23894:2023(*全文は有償)

  国際標準化機構(ISO)が策定したこの国際規格は、AIに特化したリスクマネジメントの実務的な指針を提供します。「どのようなリスクがAI固有か」「どう評価し、どうコントロールするか」など、体系的なアプローチを学べます。 

Microsoftなど民間企業の「責任あるAI」ガイドライン

 大手テック企業が自社の方針として公開している「Responsible AI(責任あるAI)」ガイドラインも参考になります。例えばMicrosoftは、AI利用にあたって「公平性」「信頼性」「プライバシー」「安全性」を担保するためのチェックリストや教育プログラムを提供しています。

 しかし、これらのドキュメントは数十ページにわたるものが多く、専門用語も多いため、「全部読むのは正直ツライ……」というのが本音だと思います。

 そんな皆さんのために、各ガイドラインの共通項として押さえておきたい“実務に直結するポイント”を、以下に簡単に整理してみました。共通しているのは、「AI活用には戦略とルールが必要である」という視点です。特に以下は、多くのフレームワークが共通して推奨している“実務の核心”と言えるでしょう。

  • AIを何の目的でどの範囲に導入するのか、あらかじめ定義すること
  • どの情報はAIに入力してはならないか、社内で明文化すること
  • 出力内容を人間が最終チェックし、責任をもって使用判断すること
  • 必要に応じて、AIの使用を顧客や取引先に開示する仕組みを整えること

フランスのMicrosoft本社

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る