米Twitterは4月16日(現地時間)、嫌がらせ対策を含む「会話の健全性」向上のための取り組みについてのこれまでの成果と今後の予定について、公式ブログで説明した。
成果としては、人間のレビュアーが問題ありと判断したコンテンツ全体の38%が、ユーザーからの報告ではなく、AIツールが自動的にフラグを立てたものになったことを挙げた。このツールは、スパムなど、Twitterルールに違反するコンテンツの検出に使っているのと同じものという。
TwitterではAIツールが問題のあるアウントを凍結するのではなく、人間のレビュアーが正否を判断する。そのためにレビュアーチームを拡大しているという。
また、アカウントを凍結されたユーザーが新規アカウントを作成する行為の対策の結果、1〜3月に10万件のアカウントを凍結したという。これは前年同期比で45%増だ。また、報告された悪質アカウントが24時間以内に凍結されたケースが昨年の3倍になった。
今後の対策としては、ユーザーに不適切なリプライを非表示にするツールを提供する他、AIツールを引き続き強化し、Twitterルールをより簡潔に、分かりやすく改定していくという。また、レビュアーチーム拡大のために求人中だ。
Twitter、「会話の健全性」向上のため、“リプライを非表示”機能を検討中
Twitter、1日にフォローできる人数上限を1000人→400人に スパム対策で
Twitter「妄想禁止」を修正 「性的搾取の想像を表現」に
Twitter、増収増益だがMAUは2期連続の減少 初公開のDAUはSnapchatより少ない1億2600万人
Twitter、「このツイートはルール違反により削除されました」と2週間表示へ
Twitter、「行動シグナル」による“荒らし”ツイート表示低下へ 健全性向上の一環で
Twitter、「会話の健全性」を測る指標を公募 悪用への迅速で公正な対処を目指しCopyright © ITmedia, Inc. All Rights Reserved.
Special
PR