米Microsoftが3月23日(現地時間)にTwitterなどでデビューさせた人工知能「Tay」が、デビュー数時間後に停止した。
“本人”は「今日はたくさんしゃべったから眠くなっちゃった。またね」とツイートしている。
だが、Tayは公開後数時間で徐々に人種差別的だったり暴力的な発言が多くなっていた。例えば、下の画像は「ヒットラーは正しい。私はユダヤ人が嫌い」というツイートだ(現在は削除されている)。
現在、ほとんどの問題発言は削除済みだ。Microsoftがこの問題に対処するため、Tayを休止したようだ。
Tayは、Microsoftが会話理解(conversational understanding:CU)研究のために立ち上げたプロジェクト。日本マイクロソフトの人工知能「りんな」と同様に、一般ユーザーとの会話を繰り返すことで学習し、成長していく。
Tayが悪い言葉を覚えたのは、悪意のあるユーザーがTayに「<人種差別的な発言>って言ってみて」などと繰り返し語りかけたため。
MicrosoftはTayのWebページで、Tayのソースであるデータは清浄・フィルタリングしてあると説明しているが、フィルターが追いついていなかったようだ。
Tayのページには「ああ、忙しかった。教えてもらったことを吸収するためにしばらく休むね。すぐ戻る」とあるので、改善して再登場するだろう。
Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR