2015年7月27日以前の記事
検索
連載

書面の監査業務「25→12時間」に半減 生成AI、旭化成の活用策は?生成AI 動き始めた企業たち(3/3 ページ)

連載「生成AI 動き始めた企業たち」第18回は、旭化成の取り組みを紹介する。各事業分野に特化した独自のAIモデルの構築を目指すという同社。どのような価値観のもと、生成AI活用を進めているのか。

Share
Tweet
LINE
Hatena
-
前のページへ |       

Q. 生成AIがもたらすリスクと対処法をどう考えるか

 リスクには2種類あると考えています。一つは生成AIを使うリスク。もう一つは生成AIを使わないリスクです。

 生成AIを使うリスクについては、情報漏えいの観点と、生成AIの出力の信ぴょう性が挙げられます。これらのリスクに対処するためには、生成AIに対して必要最低限の知識を持つことが重要だと考えています。当社では、生成AIに関する基礎知識を持つことを目的として「旭化成DX オープンバッジ」で従業員向けの教材を公開しています。また、社内報で従業員が積極的に生成AIを使えるような情報を発信したり、生成AI活用コミュニティを設立し、事例共有や利用者同士の情報交換を促進したりしています。

 教材の中では生成AIを使わないリスクについても言及しています。リスクを必要以上に恐れて生成AIを使わず、社内で発生する業務の全てを人間だけで遂行することにこだわっていると、業務効率やアウトプットの質を向上したり、新たな創発を起こしたりする機会を逃すことで競争力が低下し、個人だけでなく組織にとって大きな損失になる可能性があることも伝えています。


生成AIを「使わないリスク」も社内教材で言及している

Q. 生成AI開発に関するルール整備をしているか

 生成AIの利用については生成AIの専任チームとセキュリティやITガバナンスを担うチームが協力して、生成AIに関わるリスクや留意事項をまとめ、全社にガイドラインを発行して周知しています。

 情報漏えいに関する留意事項については、入力データが学習データに取り込まれることや、サービス提供先のサーバ内に一定期間保持されることなどを注意事項として挙げています。信憑性の観点からは、生成AIの出力には誤りが含まれる可能性があるので生成結果をうのみにせず、必ず自分自身で真偽を確認するように指示しています。

Copyright © ITmedia, Inc. All Rights Reserved.

前のページへ |       
ページトップに戻る