ITmedia NEWS > 企業・業界動向 >
STUDIO PRO

NHKも採用する「バーチャルプロダクション」 先進性だけじゃない、業界の“切実な導入理由”とは(1/3 ページ)

» 2024年02月21日 13時00分 公開
[山川晶之ITmedia]

 空間を“召喚”できる「バーチャルプロダクション」が映像業界に浸透してきている。映画やCMで使われてきた手法だったが、ここ最近ではテレビドラマや特撮番組など、毎週放送するテレビ番組でも使われるようになってきた。

(左から)スタジオブロス代表取締役社長の金子元隆氏、同社チーフコンテンツエンジニアの上津原一利氏(取材は2023年11月15日に実施)

 バーチャルプロダクションは、LEDを敷き詰めた巨大スクリーン(LEDウォール)を背景として使うことで、あたかもその空間で撮影したかのような表現が得られるのが特徴。LEDは輝度が高いため、グリーンバックでは難しい反射、映り込みも再現できる。天候やスケジュールに左右されやすいロケ撮影よりも制約が少ないため、コロナ禍を経て一気に拡大した。

 バーチャルプロダクションを拡張したシステムに「インカメラVFX」と呼ばれるものもある。カメラの動きをトラッキングし、ゲームエンジン「Unreal Engine」で作成した仮想空間内のバーチャルカメラとリンク。バーチャルカメラが捉えた仮想空間の映像はLEDウォールに背景として映し出され、カメラの動きと連動。パンやズーム、動きのあるアングルを狙っても、それに合わせて背景の画角も変化するため破綻なく撮影できる。

 海外、特に米国では一足早く普及しており、例えば2016年公開の「ローグ・ワン/スター・ウォーズ・ストーリー」では、巨大LEDスクリーンを使ったカットが一部含まれている。そんなバーチャルプロダクションだが、日本で先駆けて導入したのがスタジオブロスだ。NHKの大河ドラマ「どうする家康」や教養番組「歴史探偵」でも、スタジオブロスが手掛けたシステムが使用されている。

ローグ・ワンで使用された、巨大LEDスクリーンを使った撮影(出典:ILM

 こうした一般のテレビ番組でも広がりつつあるバーチャルプロダクションだが、先進的な撮影手法としてだけでなく「切実な面」でも選ばれるようになっているという。どういうことだろうか。

キッカケは“ビームガンを撃ちたかった”から

 スタジオブロスがバーチャルプロダクションを手掛けるようになったキッカケは意外なものだったという。2018年のとある生放送で「ビームガンを撃ちたい」という要望が番組側からかかる。しかも位置決めをして合成するのではなく、銃を自由に持って撃つとビームが飛び出るというもの。「ビーム? 生放送? どうするのこれ。めちゃくちゃです」と、スタジオブロスの金子元隆社長は振り返る。

 そこで同社は、モーショントラッカーを使って銃の動きをトラッキングしながら、銃を撃ったことを検知するとUnreal Engine上でビームが出現、そのマスク情報を豪Blackmagic Designの「Ultimatte」で役者の絵と合成し、スイッチャーに送るシステムを構築した。しかも複数人が同時に撃つシチュエーションだったため、Unreal Engineを動かしているマシンをそれぞれ用意。MIDIで同期させることで要望に応えた。LEDスクリーンを使ったものではなかったが、仕組みとしては広義のバーチャルプロダクションに該当するものだった。

 その一方で、米国の導入事例や国内のニーズなどから「(バーチャルプロダクションが)来るのはもう分かっていた」と金子氏は語る。ビームガンと同じ18年にはLEDスクリーンを使ったシステムも構築。当時、LEDを使ったバーチャルプロダクションを完成させていたのは、国内でスタジオブロスともう1社だけだったとか。

 そして「大型ドラマ」を想定し、城や何人もの侍を走らせるといった大規模なバーチャルプロダクションシステムを21年に構築する。特に局からオーダーがあったわけではないものの、コロナ禍に入り、ドラマ制作現場でもいろいろと課題が噴出。それを解決できるソリューションが求められると見越し、戦国時代のような「戦うシーン」にも使えるよう設計していた。

       1|2|3 次のページへ

Copyright © ITmedia, Inc. All Rights Reserved.