AIの活用を進めるに当たって、人間や社会が守るべき価値は何か。その基本的な考え方であるAI原則については、おおむね国際的なコンセンサスが形成されつつあり、社会実装のためのルール形成やガバナンスに関する議論が世界各国で精力的に行われている。
例えば、欧州委員会が4月に公表したAI規制案は、法的拘束力のある横断的な規制ということで注目された。日本では「人間中心のAI社会原則」などを踏まえ、経済産業省が現時点で望ましいと考えられる日本のAIガバナンスのあるべき姿を「我が国のAIガバナンスの在り方 ver1.1」として取りまとめ、7月9日に公表した。「AI原則実践のためのガバナンス・ガイドライン ver.1.0」も同日、パブリックコメントに付された。
人間中心のAI社会原則には、プライバシー確保の原則として次のような事項が掲げられている(一部抜粋)。
原則的な考え方を理解し、同意することは難しくはない。しかし、実際にAIを活用する際にこれらの考え方をどのように実現するかはとても難しい。何をどこまで実施すればプライバシーを保護しているといえるのか? という課題に直面するからだ。
背景には、プライバシー問題の固有の特徴がある。すなわち、プライバシーに関する個人の受け止め方や社会的受容性は、時間の経過やコンテクストなどによって変化し得るものであり、保護すべき内容や範囲も拡大し得るという点だ。
この点に対応するには、個人情報保護法などの法令順守(Comply)はもちろんのこと、自社のプライバシー保護に関する基本的な考え方や取り組みをステークホルダーに対して積極的に開示・説明し(Explain)、周囲から得られるフィードバックを自社のプライバシー保護施策の改善や高度化に役立てるアプローチと体制(Comply&Explain型の組織)が必要だ。
具体的にはどのような取り組みが考えられるのか。
Copyright © ITmedia, Inc. All Rights Reserved.
Special
PR注目記事ランキング