MicrosoftとSalesforceがジェネレーティブAIで競争 ユーザー側が気を付けるべきことはCIO Dive

MicrosoftとSalesforceはそれぞれ、CRMにジェネレーティブAIを搭載した最初の企業であると主張している。このようにソフトウェアソリューションにAIを追加する企業は今後も増えていくと予想される。

» 2023年04月24日 08時00分 公開
[Lindsey WilkinsonCIO Dive]

この記事は会員限定です。会員登録すると全てご覧いただけます。

CIO Dive

 「ChatGPT」の台頭とビジネスユースケースの拡大に伴い、ベンダーはCRMやERPにジェネレーティブAI(人工知能)を追加するようになっている。

 Microsoftは2023年3月6日(現地時間)、「Microsoft Dynamics 365 Copilot」を通じて、CRMやERPシステムを含むビジネス機能全体にジェネレーティブAIの提供を開始したと発表した(注1)。

 Salesforceも2023年3月7日(現地時間)、CRMソリューションにジェネレーティブAI機能を追加したと発表している。「Einstein GPT」と名付けられたこのソリューションは、顧客がSalesforceのリアルタイムデータをOpenAIの高度なAIモデルと直ちに接続したり、独自の外部モデルを構築したりすることが可能だ(注2)。

 ChatGPTはSalesforce傘下の「Slack」でも利用でき、会話の要約やリサーチツール、メッセージの下書きのための文章作成などを支援する予定だ(注3)。

CRMベンダーの次のフェーズとは

 Microsoftが「CRMとERPの両方に搭載された世界初のAI はcopilot」と主張する一方で、Salesforceも「CRM向けで世界初のジェネレーティブAI」という看板を掲げている。しかし、ソフトウェアソリューションに同様の機能を追加するベンダーは両社が最後ではないだろう。

 GartnerのディスティングイッシュドVPアナリストのジェイソン・ウォン氏は電子メールで、「クラウドCRMの顧客が市場でほぼ飽和状態にある中、CRMベンダーの次のフェーズはクラウドネイティブなインフラや基礎となるAIモデルの上に構築されたアプリケーション、プラットフォームにおけるジェネレーティブAIの勝負になるだろう」と述べている。

 Forrester Researchが2022年10月に公開したデータによると、2021〜2025年の間に企業のAIソフトウェアへの支出はほぼ倍増し、640億ドルに達するとされている(注4)。

 GartnerのディスティングイッシュドVPアナリストのアルン・チャンドラセカラン氏は電子メールで「ChatGPTは数年前に始まった“おまけ”のようなものだった。ほとんどの企業ユーザーはAIモデルが既存のワークフローやアプリケーションと自然に統合されているインテリジェントなアプリを介して、これらの大規模なAI基礎モデルを利用すると確信している」と述べている。

 同氏によると、ほとんどの企業はCRMやERPソリューションをジェネレーティブAIで強化することで、ワークフローの自動化や情報の文脈に沿った顧客体験の提供、コンテンツ生成などを改善できる。また、要約や企業内の情報検索など、自然言語のユースケースも恩恵を受けられる。

ジェネレーティブAIを活用するうえで注意すべきポイント

 世間や企業の誇大広告の裏には、ベンダーが自社製品にジェネレーティブAIを追加した時点でテックリーダーが認識しなければならない潜在的なリスクが存在する。

 「テックリーダーはベンダーが予期せぬ事態や説明の付かない結果にどのように対処するのか、基礎となるモデルのブラックボックスの性質をどのように解明するのか、モデルを進化、更新させるのか、法的リスクやコンプライアンスリスクを最小化するのか、などを検討しなければならない」とチャンドラセカラン氏は述べる。

 倫理的な配慮も忘れてはならない。

 Info-Tech Research Groupのプリンシパルリサーチディレクターであるビル・ウォン氏は、電子メールで以下のように述べた。

 「歴史的に企業は規模に関係なく責任あるAIの指導原則を順守しながら、AIアプリケーションを展開することに課題を抱えてきた。つまり、ジェネレーティブAIを提供するほとんどのベンダーは責任あるAIの指導原則を守っていないと考えられる」(ウォン氏)

 2022年9月に発表されたMIT Sloan Management ReviewとBoston Consulting Groupの1000人以上を対象にした調査によると、5人中4人以上のリーダーが「責任あるAIを経営の最優先事項にすべき」と考えているが、「自分の組織で責任あるAIが完全に成熟している」と答えたリーダーは4分の1しかいなかった(注5)。

 一般的に、倫理的なAIのフレームワークはプライバシーやモデルの説明可能性、透明性、安全性、セキュリティ、公平性、ガバナンス、アカウンタビリティを対象としている。

 ウォン氏は「これら調査から、生産性の向上やパーソナライゼーションというメリットは説得力があるが、組織はジェネレーティブAIベースのソリューションに伴う潜在的なリスクを認識する必要がある」と述べる。

 発売された製品の開発において、MicrosoftとSalesforceは「開発チームが倫理的なベストプラクティスに従った」と表明している。これにウォン氏は「顧客は以下のような質問の回答を得られるようにすべき」と指摘する。

  • プライバシーへの配慮:機密性の高い顧客データはどのように使用されるのか。誰がどのようなアプリケーションでデータにアクセスできるか。データは安全か
  • バイアスの懸念:AIモデルのトレーニングにどのようなデータが使われているのか。それは顧客の視点を代表するものか。モデルの性能を長期にわたって維持するのは誰か
  • 説明可能性の懸念:顧客データを含む意思決定や予測はどのように行われているか。モデルのトレーニングに使用されている他のデータは何か

© Industry Dive. All rights reserved.

注目のテーマ