米Googleは6月7日(現地時間)、AI(人工知能)に関する同社の取り組みのための原則を発表した。スンダー・ピチャイCEOは「AIのリーダーとして、われわれはAIの正しい扱いについて大きな責任を感じている。(中略)この原則は単なる理論的コンセプトではなく、われわれの研究開発および製品開発の方針を支配し、意思決定に影響を与える具体的な基準だ」と語った。
Googleは、同社が2017年9月に米国防総省(DoD)と契約した「Project Maven」への協力に関し、社内外から批判を浴びていた。この契約は、GoogleのAI技術と画像識技術をDoDに提供するというものだが、その技術は軍事ドローンに利用される可能性があるという。
4月には、Googleの3000人以上の従業員がこの契約に反対するピチャイCEOへの請願書に署名したと報じられた。
今回の原則発表はこうした批判を受けてのものだ。AI利用の原則として、以下の7項目を掲げた。
また、AIを利用しない4つの領域を明示した。
DoDとの契約の責任者でGoogle CloudのCEOであるダイアン・グリーン氏は同日、「Google Cloudを含むGoogleは、武器化したシステムへのAI利用を支援しない」と宣言した。ただし、Project Mavenの契約は更新はしないが破棄もしない。また、サイバーセキュリティ、生産性ツール、医療などについては今後も政府機関と協力していくとしている。
Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR