米Metaは7月6日(現地時間)、2月に発表した翻訳プロジェクト「No Language Left Behind」(どんな言語も置き去りにしない)のAIモデル「NLLB-200」をオープンソース化すると発表した。このモデル採用のアプリを構築する非営利団体には、最大20万ドルの助成金を提供する。
NLLB-200は、200の言語を中間言語なしに翻訳するモデル。現在、FacebookとInstagramだけでなく、Wikipediaの翻訳をこのモデルで改善しているという。
Metaは、メタバースでは、多数の言語で機能する技術構築が「没入型体験を民主化するのに役立ち」、「世界中の多くの人々がメタバースにアクセスできるようになる」としている。
AIモデルのトレーニングには、1月に発表した米NVIDIAと共同開発したAIスーパーコンピュータ「AI Research SuperCluster(RSC)」を使っている。
マーク・ザッカーバーグCEOは自身のFacebook投稿で、RSCで500億を超えるパラメータを使って200の言語モデルをトレーニングすると、「アプリ全体で1日当たり250億を超える翻訳が可能になる」と説明した。
同氏は、AI翻訳品質がより改善されることで「FacebookやInstagramで興味深いコンテンツを表示したり、より関連性の高い広告を表示したり、すべての人にサービスを安全に提供したり」できるようになると語った。
SNS上の偽情報や嫌がらせが社会問題化する中、プラットフォームにそうしたコンテンツを規制させようとする動きがあるが、モデレータが理解できる言語数には限界があるため、これまで英語以外の問題コンテンツを迅速に検出するのは難しかった。この翻訳モデルはこの問題の解決にも役立ちそうだ。
NLLB-200に関する論文はこちらで公開されている。また、デモサイトで多言語での物語表示を体験することができる
Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR