人工知能が偏見を助長する? 原因は学習データにありプレミアムコンテンツ

AI技術には性別や人種のバイアスに基づいた判断をしてしまうリスクがある。バイアスを軽減し、公平かつ正確な判断をするAIシステムを構築する方法を考える。

» 2020年01月21日 00時00分 公開
[TechTargetジャパン運営事務局]
ダウンロードはこちら

 Amazon.comは人工知能(AI)エンジン搭載の人材採用システムの開発を2017年に中止した。中止の理由は、採用の判断に女性就業希望者に対するバイアス(偏見)が含まれていたことだった。原因はAIシステムの機械学習に使っていたデータにあった。性別や人種へのバイアスが含まれた学習データ(教師データとも)を利用すると、AIシステムがそのバイアスに基づいた判断をするリスクがある。

 偏ったデータはときに役立つこともある。意図的にAIシステムの判断をゆがめる学習データを利用することで、かえってAIシステムの判断の正確性を高められる場合があるからだ。

 一般的にAIエンジンはブラックボックスになっている。バイアスの有無とその原因を判断することは困難だ。AIシステムのバイアスを解消しつつ、正確な判断ができるように学習させるにはどのようにすればよいのだろうか。本資料では、AIシステムのバイアスを取り巻く現状とバイアスを軽減する方法について、事例を交えて説明する。

プレミアムコンテンツのダウンロードはこちら

ALT ダウンロードはこちら

TechTargetジャパンサービス利用登録はお済みですか?

「TechTargetジャパン」メンバーシップのご案内

会員登録を行うことで、2000点以上の技術資料がそろったホワイトペーパーや興味・関心分野ごとに情報を配信するメールマガジン、ITmediaや@ITの特集記事がPDFでまとまって読めるe-bookなど、各種サービスを無料で利用できます。TechTargetジャパンサービス利用登録


Copyright © ITmedia, Inc. All Rights Reserved.

注目のテーマ