Meta、動画生成AI「Make-A-Video」を発表 「肖像画を描くテディベア」などの作品公開
Metaが動画生成AI「Make-A-Video」を発表した。「Stable Diffusion」や「Midjourney」、「DALL・E 2」などの画像生成AIの動画版。「浜辺を走るユニコーン」などの生成作品を公開した。
米Metaは9月29日(現地時間)、動画生成AI「Make-A-Video」を発表した。このところ注目を集めている「Stable Diffusion」や「Midjourney」、「DALL・E 2」などの画像生成AIの動画版というところだ。
画像生成AIと同様に、短い文章を入力すると、その内容を表す短い動画が生成される。Metaが公開した幾つかの動画は短いもので、細部がぼやけ、明らかに不自然ではあるが、可能性が感じられる。
ツイートで紹介された4つの動画はそれぞれ、「A dog wearing a Superhero outfit with red cape flying through the sky(赤いマントとスーパーヒーロの衣装を身に付けて空を飛ぶ犬)」「Hyper-realistic spaceship landing on mars(火星に着陸する超リアルな宇宙船)」「A teddy bear painting a portrait(肖像画を描くテディベア」「Unicorns running along a beach, highly detailed(浜辺を走るユニコーン、詳細に)」というテキストから生成したものという。
マーク・ザッカーバーグCEOは自身のFacebook投稿で、動画生成はピクセルが時間の経過でどう変化するかを予測する必要があるため、画像生成より困難だが、Make-A-Videoは教師なし学習のレイヤーを追加することで、これを解決したと説明した。
論文(リンク先はPDF)によると、このAIモデルのトレーニングに使っているのは「WebVid-10M」と「HD-VILA-100M」という2つのデータセットの数十万時間分の映像という。そこにはWebからスクレイピングされたストック動画も含まれる。
Make-A-Videoは現在、64×64ピクセルの16フレームの動画を出力する。公開されている作品は、それを別のAIモデルで768×768ピクセルに拡大したものだ。
同社は今のところこのAIモデルを公開していない。
「このジェネレーティブAIの研究と結果をコミュニティとオープンに共有してフィードバックを求めている。責任あるAIフレームワークを使い、この新技術へのアプローチを改良、進化させていく」としている。
動画生成AIは、中国の清華大学の研究チームが6月に先行して発表している。
関連記事
- AI画家「DALL・E 2」、ウェイティングリスト削除で誰でもすぐ利用可能に
OpenAIは、文章から画像を生成するAI「DALL・E 2」(β)のウェイティングリストを削除した。誰でもサインアップすればすぐに使える。APIもテスト中だ。 - 画像生成AI「Stable Diffusion」がLINEのチャットbotに 九工大の学生が作成 日本語にも対応
画像生成AI「Stable Diffusion」を使ったLINEのAIチャットbotサービス「お絵描きばりぐっどくん」が公開された。文章を送ることで、AIが画像を生成する。 - 「神絵が1分で生成される」 画像生成AI「Midjourney」が話題
人間の指示をもとに画像を生成するAI「Midjourney」がTwitterで話題だ。Discordでイラストのお題を投稿すると画像を出力する仕組み。 - 文章から“動画”を自動作成するAI、中国の研究チームが開発
中国の清華大学の研究チームは、簡単なテキストを入力に、その文章を基にした簡単な動画を自動作成する機械学習モデルを開発した。 - Meta、AIチームを再編 AIトップは退社
Metaは、「AIが業務の中心となってきた」ことに合わせたAI部門の再編を発表した。研究部門から各製品部門にAI業務が分散される。ヤン・ルカン博士とFAIRは研究部門として存続する。
関連リンク
Copyright © ITmedia, Inc. All Rights Reserved.