ニュース
» 2018年06月08日 10時45分 公開

Google、「AIの倫理原則」を公開 武器など人に危害を加える利用はしないと約束

米国防総省とのAI技術関連契約で社内外から批判されているGoogleが、AIに関する倫理原則を発表した。武器など人に危害を与える技術にAIを使わないとしており、ピチャイCEOは「これはコンセプトではなく具体的な基準だ」と語った。

[佐藤由紀子,ITmedia]

 米Googleは6月7日(現地時間)、AI(人工知能)に関する同社の取り組みのための原則を発表した。スンダー・ピチャイCEOは「AIのリーダーとして、われわれはAIの正しい扱いについて大きな責任を感じている。(中略)この原則は単なる理論的コンセプトではなく、われわれの研究開発および製品開発の方針を支配し、意思決定に影響を与える具体的な基準だ」と語った。

 maven 1 GoogleのAI原則

 Googleは、同社が2017年9月に米国防総省(DoD)と契約した「Project Maven」への協力に関し、社内外から批判を浴びていた。この契約は、GoogleのAI技術と画像識技術をDoDに提供するというものだが、その技術は軍事ドローンに利用される可能性があるという。

 4月には、Googleの3000人以上の従業員がこの契約に反対するピチャイCEOへの請願書に署名したと報じられた

 maven 2 従業員からピチャイCEOへの請願書冒頭

 今回の原則発表はこうした批判を受けてのものだ。AI利用の原則として、以下の7項目を掲げた。

  1. 社会貢献できる利用
  2. 不公平な偏見を生む利用をしない
  3. 安全な開発とテスト
  4. 説明責任を果たす
  5. プライバシーの保護
  6. 研究成果や知識の共有
  7. 有害となる可能性のある利用の制限

 また、AIを利用しない4つの領域を明示した。

  1. 全体的な害を引き起こす可能性のある技術
  2. 人間に危害を与えることを目的とした武器その他の関連技術
  3. 国際的なプライバシー規範に反する監視のために情報を収集・利用する技術
  4. 国際法と人権に関する原則に反する目的を持つ技術

 DoDとの契約の責任者でGoogle CloudのCEOであるダイアン・グリーン氏は同日、「Google Cloudを含むGoogleは、武器化したシステムへのAI利用を支援しない」と宣言した。ただし、Project Mavenの契約は更新はしないが破棄もしない。また、サイバーセキュリティ、生産性ツール、医療などについては今後も政府機関と協力していくとしている。

Copyright © ITmedia, Inc. All Rights Reserved.

注目のテーマ

マーケット解説

- PR -