米Metaは7月29日(現地時間)、動画内のアイテムも識別できるAIモデル「Segment Anything Model 2」(SAM 2)を発表した。コードとモデルの重みを「Apache 2.0」ライセンスの下、GitHubで公開した。
また、SAM 2の構築に使ったデータセット「SA-V」を「CC BY 4.0」ライセンスでMetaのサイトで公開した。このデータセットは、約5万1000本の実際の動画と60万点以上の時空間マスクで構成されているというが、その動画がどこから持ってきたものかは明示されていない。
SAM 2は、昨年4月リリースの「SAM」のアップデート版。SAMは画像内から個々のオブジェクトを選択できるというものだったが、2では動画内のオブジェクトも選択できるようになった。
SAMは既に、科学や医学などの現場で活用されているという。例えば、海洋科学でのソナー画像をセグメント化することでのサンゴ礁の分析や、医療分野での細胞画像のセグメント化による皮膚がんの検出などに使われている。
SAM 2で動画内のセグメント化が可能になったことで、自動運転車のトレーニング用視覚データの注釈付けなどに貢献できるとしている。
Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR