CxO Insights

生成AIが経営分析をサポート 名古屋鉄道の利用法は? 1000時間超の業務削減も生成AI 動き始めた企業たち(3/3 ページ)

» 2024年03月18日 07時00分 公開
[濱川太一ITmedia]
前のページへ 1|2|3       

Q. 生成AIがもたらすリスクと対処法をどう考えるか

 生成AIの誕生により「自らが生成AIを利用することに対するリスク」と「悪意のある他者に生成AIを利用されることに対するリスク」の2種類が生まれたと考えます。

 前者のリスクはさらに「プロンプトで情報漏えいするリスク」「生成物が法や他者の権利を侵害するリスク」「生成物がハルシネーション(虚偽)を含むリスク」の3種類に分けて整理しています。これらのリスクに対しては、ITリテラシーを教育する、人間が生成物に対する最終的な責任を負う意識をもつ、生成物を評価できるプロフェッショナルな見識を備えるなど、意識と知識の両面から対策を実施しています。

 後者のリスクは、例えばサイバー攻撃のプログラム構築やアイデア考案などで生成AIが使用されるなどのリスクです。この生成AIの”悪用”により、これまで以上に企業に対する攻撃はスピーディかつ巧妙になると予測しています。外部攻撃のスピード感に遅れないよう、情報収集やセキュリティ教育、リスクへの対策を継続的に実施しています。

Q. 生成AI開発に関するルール整備をしているか

 大きく「入力情報」と「生成物」の2点をポイントとしたガイドラインを整備し、展開しています。

 「入力情報」は社内情報の取り扱いにおいて「exaBaseなどデジタル推進部が利用を許可した生成AI」と「ChatGPTなどその他広く一般的に普及する生成AI」で内容が異なります。基本的には個人情報や機密情報は入力不可としていますが、「デジタル部門が利用を許可した生成AI」では社内情報などの機密情報の入力を許可しています。

 「生成物」は使用する生成AIに関係なく、他者の権利を侵害する可能性や虚偽が含まれる可能性など、生成物を評価し、自己の責任において利活用するよう注意を呼びかけています。

前のページへ 1|2|3       

Copyright © ITmedia, Inc. All Rights Reserved.