ITmedia NEWS > 製品動向 >

SHOWROOM、誹謗中傷コメントの監視AIを開発 “遠回しな言い方”でも検知して自動通報

» 2021年02月22日 12時29分 公開
[ITmedia]

 SHOWROOMは2月22日、誹謗中傷コメントを監視するAIを開発し、仮想ライブ空間「SHOWROOM」に新機能として搭載したと発表した。不適切なコメントをユーザーの代わりにAIが通報する。

photo 新機能のイメージ図

 新たに開発したコンテンツモデレーションAI機能では、ユーザーの代わりに悪質なコメントをAIが検知する。AIの開発にはディープラーニングを応用し、従来のキーワードによる検出ではなく、コメントの文脈をニューラルネットワーク上で抽象化する。

 同社の開発チームによると「日本語特有の遠回しな言い方や、複数回に分けてコメントをするなど、従来の手法では難しかった悪質なコメントも検出することに成功した」という。これにより、コメントの悪質性をAIが即時に判断でき、将来的には投稿前に自動削除することもできるという。

【訂正:2021年2月24日午後2時30分 AIが不適切な投稿を自動で削除する機能について、記事初出時にはすでに搭載されたものとしていましたが、正しくは今後実装する予定でした。訂正してお詫びいたします。】

 これまでは視聴者や配信者自身が通報し、運営側の監視チームが削除する流れだった。同社は「不快なコメントを、ライバーや別の視聴者が目にする機会を大幅に軽減できる」としている。

 同社の開発チームは「コンテンツモデレーションの世界では、英語や中国語に対しての研究はされているものの、日本語での研究はほとんどないのが実態だった」と説明。AIが悪質コメントを事前に察知し、投稿前に削除する機能は、日本初(同社調べ)といい、特許を出願中。

 同社は「最終的には『SHOWROOM』内で、 悪質コメントの100%排除に限りなく近くなることを目指す」とコメントしている。

photo SHOWROOMのオフィス

Copyright © ITmedia, Inc. All Rights Reserved.