生成AIの誕生により「自らが生成AIを利用することに対するリスク」と「悪意のある他者に生成AIを利用されることに対するリスク」の2種類が生まれたと考えます。
前者のリスクはさらに「プロンプトで情報漏えいするリスク」「生成物が法や他者の権利を侵害するリスク」「生成物がハルシネーション(虚偽)を含むリスク」の3種類に分けて整理しています。これらのリスクに対しては、ITリテラシーを教育する、人間が生成物に対する最終的な責任を負う意識をもつ、生成物を評価できるプロフェッショナルな見識を備えるなど、意識と知識の両面から対策を実施しています。
後者のリスクは、例えばサイバー攻撃のプログラム構築やアイデア考案などで生成AIが使用されるなどのリスクです。この生成AIの”悪用”により、これまで以上に企業に対する攻撃はスピーディかつ巧妙になると予測しています。外部攻撃のスピード感に遅れないよう、情報収集やセキュリティ教育、リスクへの対策を継続的に実施しています。
大きく「入力情報」と「生成物」の2点をポイントとしたガイドラインを整備し、展開しています。
「入力情報」は社内情報の取り扱いにおいて「exaBaseなどデジタル推進部が利用を許可した生成AI」と「ChatGPTなどその他広く一般的に普及する生成AI」で内容が異なります。基本的には個人情報や機密情報は入力不可としていますが、「デジタル部門が利用を許可した生成AI」では社内情報などの機密情報の入力を許可しています。
「生成物」は使用する生成AIに関係なく、他者の権利を侵害する可能性や虚偽が含まれる可能性など、生成物を評価し、自己の責任において利活用するよう注意を呼びかけています。
生成AIを「利用しない」リスクとは 村田製作所が全社導入した理由
分析作業、9時間→6分に パナソニック流、生成AIの活用法
企画書作り「1週間→1日」に 住友生命の生成AI活用法
長文の技術資料を“数十秒”で確認可能に アサヒビールの生成AI活用法
電話対応、最大54%の時短に JR西日本の生成AI活用術Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR注目記事ランキング