東京大学とNTTドコモは1月17日、ディープラーニングを活用し、カメラ映像から複数人のモーションキャプチャーを行う技術を開発したと発表した。専用のスーツなどを用意する必要がなく、これまでモーションキャプチャーが困難だった、スポーツの試合やライブ会場でもデータを取得できるため、運動の解析や3Dアニメーションの作成に役立つとしている。
東大の中村研究室が開発した技術「VMocap」(ブイモーキャプ)を活用。解析に適した映像を、複数のカメラから自動的に選んで切り替え、映った人の身体部位を推定する。人の骨格構造や運動の連続性を考慮しつつ、画像認識技術も用いることで、高精度のモーションデータを取得できるとしている。
フットサルの試合のように、広い空間で複数の人間が動き回ったり、身体が重なって見えたりする状況にも対応できるという。
また同研究室が開発している、ロボティクスに基づいた動作解析技術も活用。身体部位の加速度から算出した力や、地面やボールなど体と接触した場所に加わる力を基に、筋肉の動きを可視化。これらの技術を組み合わせたことで、複数台のカメラ映像のみで運動の計測・解析を一貫して行えるようになったという。
今後、スポーツ領域ではトレーニングや戦術解析に使う他、エンターテインメント領域での3Dアニメーションの作成や、介護・リハビリ現場の運動評価での活用も目指す。
画像から人物の骨格を推定、ディープラーニング活用の無料サービス
お久しぶりか、初めましてか――“AI美空ひばり”に見る「デジタル故人」との付き合い方
「2020年は、ディープラーニングで成長する事業が生まれる」 東大・松尾教授
AIが顔、絵師が身体を描くイラスト制作サービス「彩ちゃん+」 3万3000円から
映像から数千人をリアルタイムにカウント キヤノンがAI分析技術を開発Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR