なぜこうしたことが起きたのかという背景を振り返っておこう。21年1月にイーロン・マスクと米Microsoftが支援する企業OpenAIが、「なんでも作画するAI」である「DALL・E」を発表し、米Googleも続いて22年5月に同様の機能を持つ画像生成AI「Imagen」を発表した。
しかし、彼らは「発表」したが「公開」はしなかった。OpenAIにしろGoogleにしろ、その影響力の大きさから、世間の評判を異常に恐れることで萎縮せざるを得ないムードがあった。
また、OpenAIが先に発表したGPT-3は、差別的な文章を生成してしまうことが大きく問題視された。言葉でさえ人間にとって好ましくない結果を生成してしまうAIが、もしも画像で同様の差別的なものや好ましくないものを出力したらどうなってしまうだろうか。
その結果に責任は負えないということで、OpenAIからもGoogleからも、かなり機能の制限されたオモチャのようなAIだけが「論文が正しい証拠」として公開されただけだった。見方を変えれば、一部の大物が支配するビッグテックが、最先端のAIの成果を独占して見せびらかしているだけのように見えた。
ところがAIの世界ほどオープンソースの恩恵を受けている場所はない。あらゆるものがオープンソース化され、交換され、それがまた互いに刺激を与えて共進化することがAIコミュニティ全体の発展に大きく寄与している。
ところが画像生成AIに関してだけは、極端に慎重な姿勢が、むしろオープンソースコミュニティを根城とする現場のAI研究者たちの反感を買うことになった。
OpenAIはその後、DALL-Eの後継の「DALL・E 2」の一般公開を開始したが、これも招待制かつ有料で、ごく一部の人だけが使うことを許されるものだった。
ここに風穴をあけたのが、前述したStable Diffusionである。これまでビッグテックが慎重に囲い込んできたユーザーを、一気に一般ユーザーまで拡大した。
Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR