ITmedia NEWS > 社会とIT >
セキュリティ・ホットトピックス

企業「ChatGPTは使っちゃダメ」→じゃあ自分のスマホで使おう──時代はBYODから「BYOAI」へ事例で学ぶAIガバナンス(2/3 ページ)

» 2024年02月20日 08時00分 公開
[小林啓倫ITmedia]

BYOAIで会社も社員もみんな幸せ?

 これにはいくつかのメリットがある。まずは従業員の生産性向上が期待できるという点だ。AIの進化は日進月歩で、特に生成AI系サービスの進化の速さはご存じの通り。最新の機能をBYOAIで取り入れることで、他社に先駆けた革新的な業務効率化が可能になる。

 もちろん社内ChatGPTも従業員の生産性向上に役立つとはいえ、外部サービスに合わせて機能進化を続けるのは不可能であり、手当たり次第に最新機能を取り入れていては、逆に見えないリスクが増してしまうことになる。

 第2に、単なる生産性向上だけでなく、従業員主導のイノベーションも期待できる。AI技術に限らず、現場でどのような問題やニーズが生じているか、そしてその対応に情報システムがどう役立つかを把握するには、従業員も巻き込んだ調査が必要になる。

 それは往々にしてうまく進まないものだが、従業員自らがシステム活用を考えるのであれば、より革新的な使い方を考えられる可能性がある。しかもそのツールが、従業員自らがプライベートでも使っているものであればなおさらだ。また生成AIのように、新しい使い方の模索が必要な技術の場合、トライアル&エラーが行いやすいBYOAIのアプローチの方が、より適しているといえる。

 第3に、従業員満足度の観点からもBYOAIは望ましい。生成AIのように最先端のツールを使う人物は、そもそもそうした先端技術への感度が高く、それを使うことに喜びを感じるようなタイプだと想像できる。

 彼らに対して、頭ごなしに「これを使うな」というのは反発を招くだけだ。適切なルールを設けた上で解禁することは、彼らを満足させるだけでなく「君たちを信頼している」というメッセージを送ることにもなる。そうすれば、彼らからの協力を引き出し、将来的により好ましいBYOAIルールの制定や運営を行えることにつながるだろう。

BYOAIのリスクと求められる対応

 もちろんBYOAIがもたらすのはメリットだけではない。従業員が自分で契約した外部AIサービスを職場に持ち込むことで、各種のリスクが生じると考えられる。まずいえるのは、セキュリティやプライバシーに関する問題だ。

 いくら高度なデータ分析を簡単にできるようになるからといって、会社の機密情報を外部サービスにアップロードするようなことがあっては、業務の効率化もイノベーションもあったものではない。他にもプライバシーや個人情報に関する各種法令の違反や、セキュリティ・プロトコルの違反、コンプライアンスに関する問題などが生じる懸念がある。

 第2に、従業員が独自のAIツールを使用することで、それを活用して作成した成果物の所有権はどうなるのか、またライセンス費用を誰が負担するかについて疑問が生じる可能性がある。特にコストについては、BYODでも生じていた難しい問題だが、BYOAIでも繰り返される可能性がある。

 第3に、従業員が当該AIツールに関する十分な知識を持たずに使用した結果、さまざまな倫理的・法律的な問題が生じる可能性がある。

 例えば、何らかのバイアスを持つAIを使ったことで、その出力に含まれる不適切なコンテンツに影響されてしまったり、使ったたAIが開発に当たって何らかの問題を抱えていた(違法労働による学習データのタグ付けや、著作権コンテンツの違法な収集など)ことで、規制当局からの取り締まりを受け、急に使えなくなってしまったりといった具合だ。

 従業員に外部サービスの利用を野放しに許可してしまうと、どのようなAIサービスが利用され、それぞれについてどのようなリスクが発生しているか、全体を把握するのは不可能になってしまう。

 以上がBYOAI導入によって考えられる主なリスクだが、前述のように、ルールがなくても従業員は最先端のツールを仕事で使いたがるものだ。であれば、こうしたリスクはBYOAIを追求することで生まれるというより「適切なコントロールが行われる形で個人AI利用を許可しなかった」ことで生まれるものともいえるだろう。

Copyright © ITmedia, Inc. All Rights Reserved.