ITmedia NEWS > 速報 >
速報
» 2020年01月17日 16時02分 公開

映像から複数人の激しい動きを解析、東大とドコモが技術開発 ディープラーニング活用

東京大学とNTTドコモが、ディープラーニングを活用し、カメラ映像から複数人のモーションキャプチャーを行う技術を開発。スポーツやエンターテインメント領域、介護・リハビリ現場などでの活用を目指す。

[ITmedia]

 東京大学とNTTドコモは1月17日、ディープラーニングを活用し、カメラ映像から複数人のモーションキャプチャーを行う技術を開発したと発表した。専用のスーツなどを用意する必要がなく、これまでモーションキャプチャーが困難だった、スポーツの試合やライブ会場でもデータを取得できるため、運動の解析や3Dアニメーションの作成に役立つとしている。

photo モーションキャプチャーのイメージ

 東大の中村研究室が開発した技術「VMocap」(ブイモーキャプ)を活用。解析に適した映像を、複数のカメラから自動的に選んで切り替え、映った人の身体部位を推定する。人の骨格構造や運動の連続性を考慮しつつ、画像認識技術も用いることで、高精度のモーションデータを取得できるとしている。

 フットサルの試合のように、広い空間で複数の人間が動き回ったり、身体が重なって見えたりする状況にも対応できるという。

 また同研究室が開発している、ロボティクスに基づいた動作解析技術も活用。身体部位の加速度から算出した力や、地面やボールなど体と接触した場所に加わる力を基に、筋肉の動きを可視化。これらの技術を組み合わせたことで、複数台のカメラ映像のみで運動の計測・解析を一貫して行えるようになったという。

photo 技術の概要
photo フットサルからモーションデータを取得

 今後、スポーツ領域ではトレーニングや戦術解析に使う他、エンターテインメント領域での3Dアニメーションの作成や、介護・リハビリ現場の運動評価での活用も目指す。

Copyright © ITmedia, Inc. All Rights Reserved.