Microsoftの人工知能Tay、悪い言葉を覚えて休眠中

Microsoftが会話理解研究のために公開した人工知能botの「Tay」が、Twitterでのデビュー数時間後に停止した。ユーザーに教えこまれた人種差別などの問題のある単語をツイートするようになったためとみられる。

» 2016年03月25日 08時23分 公開
[佐藤由紀子ITmedia]

 米Microsoftが3月23日(現地時間)にTwitterなどでデビューさせた人工知能「Tay」が、デビュー数時間後に停止した。

 “本人”は「今日はたくさんしゃべったから眠くなっちゃった。またね」とツイートしている。

 だが、Tayは公開後数時間で徐々に人種差別的だったり暴力的な発言が多くなっていた。例えば、下の画像は「ヒットラーは正しい。私はユダヤ人が嫌い」というツイートだ(現在は削除されている)。

 tay 1 Tayの人種差別的なツイート

 現在、ほとんどの問題発言は削除済みだ。Microsoftがこの問題に対処するため、Tayを休止したようだ。

 Tayは、Microsoftが会話理解(conversational understanding:CU)研究のために立ち上げたプロジェクト。日本マイクロソフトの人工知能「りんな」と同様に、一般ユーザーとの会話を繰り返すことで学習し、成長していく。

 Tayが悪い言葉を覚えたのは、悪意のあるユーザーがTayに「<人種差別的な発言>って言ってみて」などと繰り返し語りかけたため。

 MicrosoftはTayのWebページで、Tayのソースであるデータは清浄・フィルタリングしてあると説明しているが、フィルターが追いついていなかったようだ。

 Tayのページには「ああ、忙しかった。教えてもらったことを吸収するためにしばらく休むね。すぐ戻る」とあるので、改善して再登場するだろう。

photo Twitterに登場したばかりのころのTay
 tay 2 Tayは「Chat soon」と言っている

Copyright © ITmedia, Inc. All Rights Reserved.

注目のテーマ