ユニリーバが掲げる“スゴい”AI戦略 1万6000人が生成AIトレーニングを受講CIO Dive

EU AI法の制定により、企業は今まで以上に生成AIを含むAIのコンプライアンスを強化しなければならない。同時に成長戦略を推進するのは容易ではないが、それらを両立したAI戦略に取り組んでいるのがユニリーバだ。同社のAI戦略の詳細に迫る。

» 2024年10月17日 08時00分 公開
[Lindsey WilkinsonCIO Dive]

この記事は会員限定です。会員登録すると全てご覧いただけます。

CIO Dive

 英国を拠点とする消費財メーカーUnilever PLC(以下、Unilever)は、変化するAI規制の状況を念頭に置きながら成長目標を追求しており、その一部は同社の「go wide and go deep」(広く深く進める)を掲げるAI戦略によって推進されている。Unileverは「Dove」のパーソナルケア用品や「Ben & Jerry’s」のアイスクリーム、「Axe」の消臭剤など400以上のブランドを有し、190カ国で事業を展開している。

 同社のようにEU(欧州連合)で事業を展開する企業には、AIの開発と統合に関する新たな基本ルールが設けられている。EUにおける「AI規制法」(以下、EU AI法)の施行までのカウントダウンは刻々と迫っており(注1)、企業のリーダーは自社の体制がEU AI法の条項にどれほど合致しているのか、また今あるギャップを埋めるにはどうすれば良いのかを模索している。

ユニリーバのAI戦略は何がスゴいのか

 では、法規制に対応しながら成長を実現しているUnileverのAI戦略は何が優れているのだろうか。

 「『go wide』とは、従業員がより快適に、より簡単に仕事に取り組めるようにするAI機能を導入、開発することであり、従業員全体の生産性向上を目指している」と、アンディ・ヒル氏(CDO《最高データ責任者》)は語った。この戦略にはツールの導入や基礎的能力のトレーニング、ポリシーが含まれる。

 同社幹部によると、EU AI法や今後予定されているその他のAI規制を順守するための鍵は、責任あるAIを実践し拡大することに加え、経営層の協力や継続的なリスク軽減にあるという。

 「コンプライアンスを極めるには画一的なアプローチや単一の作戦があるわけではなく、複数のステークホルダーが協力しながら常に改善を繰り返すプロセスが必要だ」とクリスティン・リー氏(CPO《最高プライバシー責任者》)は述べた。

 「プライバシーチームや法務チーム、データ分析チーム、ビジネスチーム、オペレーションチームが協力している。EU AI法のコンプライアンスプログラムを守るために、全員が力を合わせているのだ」(リー氏)

 Unileverは2024年、約1万6000人の従業員に生成AIに関するトレーニングを行った。このトレーニングは、従業員の日々の業務における生成AIの利用状況に応じてカスタマイズされており、入門コースからプロンプトスキルに焦点を当てたものまでさまざまだ。この取り組みはEU AI法の第4条に沿ったもので、AIシステムの開発者や提供者は、従業員に十分なレベルのAIリテラシーを身に付けさせる必要がある(注2)。

 「『go deep』は、AIが組織を変革し、売上や生産性、あるいは世界中の消費者とのつながり方に大きな影響を与えるほどにまで成長するといった極めて大きな機会を創出することを示している」(ヒル氏)

 同社は現在、全世界で500以上のAIプロジェクトを立ち上げており、そのうち330以上が活動中である。

コンプライアンス強化とトレーニングの重要性

 ほとんどの企業はITインフラやデータエコシステム、セキュリティにおける理想と現実のギャップを改善することに重点を置いて、システムのモダナイゼーションに取り組んでいる(注3)。企業のITリーダーはAI規制の強化がこうした課題を増幅させると予測している。

 2024年8月に発表されたKPMGの調査によると、経営層の半数以上がコンプライアンス関連のコスト増を予測しており、約3分の2が要求事項がより複雑になると予想している(注4)。

 Unilever幹部は「AIの取り組みにおいてITリーダーは重要な役割を担うが、成功する組織は責任を分散させている」と話す。生成AIが急成長する前からAI活用に取り組んできた企業は、優位性を持っている傾向がある。

 「われわれは過去5年間、AI導入戦略を実行しており、AIは常に全体的なビジネス戦略の一部として統合され、組み込まれている」(ヒル氏)

 Unileverは2019年、企業の責任ある原則に則っていることを示すため、AIシステムの倫理的リスクとパフォーマンスにおけるリスクを評価する「AI保証プロセス」を作成した。EU AI法によると、リスクの高いAIシステムに関連するリスク管理プログラムが求められている(注5)。

 「これは長年にわたるプログラムであり、大きく進化してきた」とリー氏は言う。プログラム開始当初は特定のユースケースに焦点を当てていたが「現在はレポートやビジネスプランに必要とされる効率的なデータを提供するために、異なる機能間の整合性を分析するまでに成長している」と同氏は付け加えた。

 これまでに約150のプロジェクトがAI保証プロセスを通過した。これらのAIアプリケーションの約半数は、何らかの改善が必要だった。必要な改善点はパフォーマンスの問題から不要なバイアス、透明性のギャップの緩和に至るまでさまざまだ。

 EU AI法第10条によれば、ハイリスクのAIモデルは一定の基準を満たす必要があり、導入する組織はバイアスの可能性を検証し、それを検出や防止、緩和するための対策を講じなければならない(注6)。

 Unileverでは保証プログラムに加え、部門横断的なチームが新しいAIシステムを使った潜在的なユースケースのリスクを評価している。責任あるAI活用の重要性を強調するためのトレーニングも行われており、その内容は基本的なベストプラクティスから大学レベルのデータサイエンスコースまで幅広い。

 「われわれのトレーニングと教育は、まさに『go wide, go deep』というアプローチを反映したものだ」(リー氏)

© Industry Dive. All rights reserved.