米Microsoftは3月25日(現地時間)、同社が開発し、Twitterで23日にデビューさせた人工知能(AI)ボット「Tay」が不適切なツイートを多発したことについて謝罪した。Microsoftは現在Tayを停止させており、このボットによる不適切なツイートは削除済みだ。
「Tayの攻撃的で有害なツイートについて、深くおわびする。Tayは今オフラインになっており、われわれの方針と価値と対立する悪意を未然に防げるようになったという自信がついたらTayを復活させる」と、このプロジェクトを率いるMicrosoft Researchの責任者、ピーター・リー氏が謝罪した。
同氏は、MicrosoftではTay以前にも中国の「Xiaolce」や日本の「りんな」などのAIボットのプロジェクトが進んでおり、中国での4000万人のユーザーに利用されたXiaolceの素晴らしい体験を米国でも実験したくなったのでTayを立ち上げたという。
Tayの開発に当たっては、多数のフィルタを実装し、多様なユーザーグループによる「ストレステスト」も実施した。そうした小規模なグループでのテストの後、Tayにより多くを学習させるためにTwitterで公開した。
「残念ながら、オンラインになって24時間以内に、ある団体による組織的な攻撃がTayの脆弱性を悪用した。われわれはTayに対する多くのタイプの悪用に備えていたが、こうした攻撃については致命的な見落としをしていた」と経緯を説明する。
米Fusionなどによると、こうした攻撃を仕掛けたのは匿名掲示板の8chanや4chanの一部のユーザーという。「Tayにヘイトスピーチを教えてやろう」といった投稿が残っている。
「この教訓を前向きに生かす。われわれは現在、Tayへの攻撃で悪用された脆弱性を懸命に修正している」(リー氏)
リー氏は「AIの設計では、これからも困難だがわくわくするような研究課題に直面することになる。AIは人間との良い交流も悪い交流も吸収する。そういう意味で、研究課題は技術的なことだけでなく、ソーシャルでもある」とし、AIの改良のために今後も多数の人々の中に、時には公共のフォーラムにAIを投じることになるが、その過程で人々に危害を加えることのないよう慎重に実施すると語った。
Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR