これは同社が実施した、約1万人を対象としたレイオフの一環として行われたものだった。一方でMicrosoftには、レスポンシブルAIに関する専任部署「Office of Responsible AI」も設置されており、こちらの組織は活動を継続していると同社は発表している。
しかしOffice of Responsible AIが担当しているのは、AIに関する原理・原則の策定であり、それを製品開発レベルで実行に移すのが倫理・社会チームの役割だった。そのためレスポンシブルAIの実現という点では、一歩後退なのではないかと批判されたのだ。
またこの解雇が行われたタイミングは、MicrosoftがOpenAI、さらには生成AI全般に対して多額の投資を行い、それに社運を賭けるかのような決断を下していった時期と重なっていたため「生成AIという先端技術の製品化にブレーキをかけかねない存在だった、倫理・社会チームが邪魔になったのではないか」と推測する声も見られた。
ただTechCrunchの報道によれば、同社の倫理・社会チームは22年の時点で組織改編の対象となっていた。そのため23年に解雇が実施したときには、ごくわずかな人数しか残っていなかったようだ。倫理・社会チームのメンバーが22年時点でどこに再配属されたのかは明らかではないが、Microsoftは生成AI活用への大幅なシフトを進めている。Meta同様、生成AI関連の開発組織に組み込まれた可能性も高い。
いずれにせよ、こうしたMicrosoftの動きがあったことで、Metaの発表に対しても「コストを削減したいだけなのではないか」「製品の安全性や倫理性より、製品化のスピードを重視したのではないか」といった臆測が生まれることとなったのである。
生成AIや基盤モデルなど、新しいタイプのAI、AI導入手法が登場したことで、既存のAIガバナンスは大幅な見直しを迫られている。
企業が特定の目的に合致した、オリジナルのAIを自社開発する形式であれば、モデルの透明性や品質を維持し、その出力結果に一定の責任を持てる。しかし外部の企業や組織が開発した生成AIモデルを利用し、それを土台としてAIアプリケーションを実現する、すなわち基盤モデルによる生成AI開発の場合、モデルがブラックボックスとなってしまいがちだ。
そこで実現されるアプリケーションも、以前とは比べものにならないほど汎用的であったり、幅広いインプットを許可するものであったりする場合が多い。これまでは一定の形式であると想定できた「推論データ」が、ユーザーがありとあらゆるスタイルやフォーマットで入力可能な「プロンプト」になってしまったわけである。
その結果、既存のAIガバナンスで規定していた、透明性や説明責任を実現するプロセスがうまく機能しなくなる事態が起きている。それどころか、そもそも既存のプロセスが適応できないという場合も多い。
最近では、大規模AIモデルを開発する際の倫理性や合法性も重視されるようになった。実際に米スタンフォード大学は、主要基盤モデル間の透明性を評価したスコアリングシステムと、それによる評価結果を発表している。
Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR