コラム
» 2016年03月26日 06時00分 UPDATE

ITはみ出しコラム:人工知能にヘイトスピーチを覚えさせる残念な人たち

差別的発言を繰り返した人工知能「Tay」が話題ですが、それを仕込んだのはもちろん人間です。しかし、こうした行為は結果的に人工知能を鍛えるかもしれません。

[佐藤由紀子,ITmedia]

 米Microsoftは3月23日(現地時間)、人工知能ボットの「Tay(テイ)」をTwitterなどのSNSでデビューさせました。しかし公開後しばらくすると、いわゆるヘイトスピーチを頻発するようになり、数時間後には「眠くなっちゃったから、おやすなさーい」と言って活動を停止してしまいました。

 もちろん、実際に眠くなったわけではなく、問題発言が続いたため、Microsoftが停止したのです。それまでにTayがツイートしてしまったヘイトスピーチは、ほぼ完全に削除されました。

tay Tayは眠らないはずでしたが休眠中

 Tayとは、Microsoftの研究部門が人工知能の会話理解を研究するため、実験的に公開したボットです。ユーザーとテキストで交流することによって、人間らしい受け答えを学習していくはずでした。Microsoftの思惑に反して問題のツイートを多発するようになったのは、Tayが人格を持って人種差別主義者になったわけではなく、ユーザーがそうなるように仕向けたからです。

 米Fusionによると、米国の匿名画像掲示板サイトの4chanや8chanの複数の板で「Tayにヘイトスピーチを教えてやろう」キャンペーンが展開されたようです。そして悪意のあるユーザーが、Tayに「<人種差別的な発言>って言ってみて」などと繰り返し語りかけることで、ヘイトスピーチを覚え込ませたのでした。

8chan Tay教育を呼び掛ける投稿(8chanより)
問題発言 このような問題発言を繰り返したTay

 MicrosoftはGoogleやFacebookと並んで人工知能の研究にかなり力を入れているので、こうした問題が発生することも当然予測していたはずです。現に、Tayのページには、Tayが学習するためのソースデータは、(問題のある言葉は)フィルタリングしたクリーンなものだという説明があります。それでも、人海戦術に負けてしまった、というところではないかと思います。

 もっとも、Microsoftの研究者たちにとって、今回集まった会話のデータはすごく貴重なもので、これだけでもTayをデビューさせたかいがあったというものでしょう。Tay自身も「教えてもらったことを吸収するためにしばらく休むね。またすぐチャットしようね」と言っているように、このデータを元にフィルタが強化され、打たれ強くなって再デビューするはずです。

 そういえば、プロ棋士に勝利した人工知能「AlphaGo」を開発したGoogle DeepMindのデミス・ハサビス氏も、5連戦で唯一負けた4局目の後の記者会見で、「この一敗はわれわれにとって非常に貴重なものだ。この敗北のデータを持ち帰り、AlphaGoの今後の学習に役立てたい」とすごくうれしそうに語っていました。勝ったときのデータより、負けたデータの方が研究にとっては貴重なのです。

 Tayが再デビューしたら、また変な言葉を覚えさせられるかもしれません。この先Microsoftの研究者と匿名掲示板有志(?)の知恵比べが始まる予感。それが結果的に人工知能の研究に大きく貢献しそうです。

Chat soon Tayのページには「Chat soon」の文字。また近いうちに再デビューしそうです

バックナンバー

関連キーワード

人工知能 | Microsoft | ヘイトスピーチ


Copyright© 2016 ITmedia, Inc. All Rights Reserved.