メディア
ITmedia AI+ >

国民玉木氏も乗り気、安野たかひろ氏「デジタル民主主義2030」の真価は──超速インタビュー(3/3 ページ)

» 2025年01月21日 18時24分 公開
前のページへ 1|2|3       

政治×AIのリスクと可能性 安野氏の視座

――現在のテクノロジーの中で、特に注目されているものは何でしょうか

安野氏:社会に与える影響としては、AIが全体10の中の9を占めると考えています。みんなAIの影響をまだ過小評価していますが、はるかに破壊的な影響があります。

 ブロックチェーンやWeb3、VRなどと比較しても、社会に対する影響としてAIが99で他が1くらいの重要性です。あまりにも過小評価されていると思います。

――人工知能が人間の知能を超えるとされるAGI(汎用人工知能)やASI(超人工知能)の政治への活用については

安野氏:AIが人間の能力を超える可能性は確かにあります。今年ではありませんが、能力の向上は急速で、2020年代後半には人間が太刀打ちできないレベルに達している可能性が高いと考えています。

 しかし、そこから実際に政治的な意思決定をAIに任せるべきかどうかについては、慎重な議論が必要です。例えば、AIには責任能力がありません。人間の政治家であれば失敗した際に責任を取って“腹を切る”こともできますが、AIにはそれができないのです。

 ただし、政治や行政の現場でAIを支援的に活用していく余地は十分にあります。例えば、従来のパブリックコメントの仕組みを、AIを活用してより高度化することは可能でしょう。そのためには、政治家や行政職員が特別な技術的知見がなくても使えるよう、システムの設計を改善していく必要があります。

――AIの政治利用における安全性について、データの扱いやAIの判断基準をどのように設定すべきとお考えですか

安野氏:用途に応じて適切に使い分けていく必要があります。例えば、私が以前開発したフォーラムシステムでは、攻撃的な発言や罵詈(ばり)雑言をAIでフィルタリングする機能を実装しました。

 過度に攻撃的な発言が飛び交うと安全性が損なわれ、一般市民が議論に参加しづらくなるためです。このケースでは、扱うのが公開フォーラム上のデータという性質上、データの漏えいリスクよりも、より賢いAIを使って議論の質を保つことを優先しました。

――AIを政治的な意思決定に活用する際、判断の偏りやデータの偏向性といったバイアスの問題が懸念されます。例えば市民の声を集める際に特定の意見に偏ってしまったり、AIの判断に人種や性別による偏見が含まれるリスクもあります。こうしたAIのバイアスについてはどのようにお考えですか

安野氏:バイアスをゼロにすることは不可能だと考えています。どのようなAIモデルを使っても何らかのバイアスは必ず発生します。これは人間でも同じことで、誰しも持っているバイアスをゼロにすることはできません。そのため、バイアスをなくそうとする方向性は諦める必要があります。

 重要なのは、バイアスの存在を認めた上で、プロセスを透明化することです。「このAIモデルを使用し、このようなデータを入力して、このように結果を解釈しました」というように、判断のプロセスを明示することができれば、第三者が検証できるようになります。例えば「このモデルにはこういったバイアスがあるので、別のモデルを使うべき」とか「この解釈の仕方には問題があるのではないか」といった建設的な議論が可能になります。

 これは人間が判断する場合と比べて大きな利点です。人間が頭の中で処理して判断を下す場合、その思考プロセスはブラックボックスになってしまいます。一方、AIの場合は全てのプロセスを明示できます。実際、各種の大規模言語モデル(LLM)がどのような傾向の回答をするのか、という研究も進められています。


 安野氏に対しては「AIスタートアップへの見方やAIエージェントの展望」「安野氏自身が使っているAIツール」についても聞いた。いずれも後日記事化する予定だ。

前のページへ 1|2|3       

Copyright © ITmedia, Inc. All Rights Reserved.

アイティメディアからのお知らせ