自治体DX最前線

ChatGPTに重要な情報を送っても安全か? 自治体のネットワーク分離モデルから考える(1/2 ページ)

» 2024年08月22日 07時00分 公開
[川口弘行ITmedia]

 こんにちは。川口弘行です。私が自治体のデジタル化に関わる際には、個人としての川口弘行だけでなく、川口弘行合同会社という法人の立場も持っています。自分のフルネームを会社名にするというのは、他の人には理解されにくいようで、「え? これは個人事業ですか?」と尋ねられることもあります。

Internet Archivesに残っている kawaguchi.com の当時のページ

 この会社名にした理由のひとつが、kawaguchi.com というドメイン名です。今から30年ほど前にこのドメインを取得して以来、ずっと使い続けています。取得した当時の日本は、電話回線のダイヤルアップでインターネットに接続していました。国内の個人向けプロバイダーは数えるほどしかなく、このドメイン取得は米国のエージェントを通じて行いました。

 インターネットが社会の基盤になるとは、想像もしていなかった時代の話です。

 さて、昔話はこの辺にして「自治体における生成AIの利活用」について考えてみましょう。前回の記事「プロンプトの悩み不要 自治体で使うべき『ChatGPT Plus』の機能とは?」では「生成AIが出力した回答の妥当性」について議論しました。

 AIの回答は単なる「意見」に過ぎず、それらの意見を慎重に検討し、最終的な判断を下すのは人間の重要な役割であるという点を強調しました。

 今回は「送信された情報の管理の問題」、つまり「ChatGPTに重要な情報を送信しても安全なのか?」という点について考察してみたいと思います。

 いくつかの自治体から、過去にこんな質問を受けたことがあります。

 「ChatGPTに重要な情報を送信しても安全なのか? 職員が誤って個人情報を送信してしまったら、どうするのか?」

 自治体は住民の方から個人情報を預かり、行政サービスを提供しているため、情報セキュリティ対策には非常に敏感です。また、ChatGPTのような「未知なるサービス」に対する漠然とした不安もあります。

 でも、よく考えてみれば奇妙な話です。送信してしまった個人情報というのは、どこからやってきた情報なのでしょうか? また、個人情報だけが重要な情報なのでしょうか? 多くの自治体はここで思考停止しているのかもしれません。これは生成AIの話題というよりも、むしろ自治体の情報セキュリティ対策に関する話題です。さっそく、詳しく見ていきましょう。

著者プロフィール:川口弘行(かわぐち・ひろゆき)

photo

川口弘行合同会社代表社員。芝浦工業大学大学院博士(後期)課程修了。博士(工学)。2009年高知県CIO補佐官に着任して以来、省庁、地方自治体のデジタル化に関わる。

2016年、佐賀県情報企画監として在任中に開発したファイル無害化システム「サニタイザー」が全国の自治体に採用され、任期満了後に事業化、約700団体で使用されている。

2023年、公共機関の調達事務を生成型AIで支援するサービス「プロキュアテック」を開始。公共機関の調達事務をデジタル、アナログの両輪でサポートしている。

現在は、全国のいくつかの自治体のCIO補佐官、アドバイザーとして活動中。総務省地域情報化アドバイザー。

公式Webサイト:川口弘行合同会社、公式X:@kawaguchi_com


自治体のネットワーク分離モデルから考える

 この問題は最終的に自治体の情報セキュリティポリシーの議論に行き着きます。全ての自治体は、自らの組織の情報セキュリティに関する振る舞いや取り扱いを情報セキュリティポリシーとして文書化し、これを順守することになっています。

 総務省では定期的に「地方公共団体における情報セキュリティポリシーに関するガイドライン」を改定し、全国の自治体に対して情報セキュリティポリシー策定や見直しの参考とするよう促しています。

 残念ながら多くの自治体はこのガイドラインをうまく活用できておらず、自分たちの情報リテラシーに応じた効果的な対策を打つことができていません。そこで、少しこの部分の考えを整理してみましょう。

 自治体の情報セキュリティポリシーでは、通常、取り扱う情報の機密性を3段階に分類して管理しています。多くの自治体では、「α(アルファ)型ネットワーク分離モデル」を採用し、インターネット系、LGWAN(総合行政ネットワーク)接続系、個人番号系――の3つのネットワークに分離した上で、職員が日常的に使用する端末はLGWAN接続系で運用されています。

 さらに、私が関与する自治体では、これらのネットワークを数字で管理しています。具体的には、ネットワークレベル1(インターネット系)、2(LGWAN接続系)、3(個人番号系)――という呼称を用いています。

 この数字による管理には明確な理由があります。

 分離されたネットワークのレベル(1、2、3)と、取り扱う情報の機密性(1、2、3)を1対1で対応させることで、管理をより簡潔かつ効果的にしているのです。

 例えば、機密性レベル1の情報はインターネット系、レベル2はLGWAN接続系、レベル3は個人番号系というように、明確に区分けして運用しています。このような運用が適切に行われていれば、職員は自分が現在どのレベルのネットワークで作業しているか、つまり、どの機密性レベルの情報まで扱うことができるのかという境界線が明確になります。結果として、職員はその境界線を理解し、順守すればよいという明確な指針を得ることができます。

分離したネットワークと機密性の関係

 ここまで整理すると、先ほどの「ChatGPTに重要な情報を送信しても安全なのか? 職員が個人情報を送信してしまったら、どうするのか?」という質問の奇妙さが浮き彫りになります。

 ChatGPTはインターネット上のサービスであり、レベル1ネットワーク(インターネット系)からのみアクセス可能です。つまり、扱える情報の機密性レベルは1に限定されます。

 一方、個人情報は通常、機密性レベル3に分類されます。個人情報をChatGPTに送信するためには、まず機密性レベル3の情報をレベル3ネットワークから持ち出す必要があります。このような情報の持ち出しが日常的に行われているとすれば、ChatGPTへの懸念以前に、自身のセキュリティ運用体制を見直す必要があるでしょう。

 さらに、セキュリティ運用体制の見直しにおいては、ChatGPTを安全かつ効果的に活用するための具体的な実施手順の整備が不可欠です。

 自治体の情報セキュリティポリシーは通常、基本方針、対策基準、実施手順という三層構造の文書で構成されています。しかし、総務省のガイドラインは基本方針と対策基準の例示にとどまり、実際の運用方法を示す実施手順については明確な指針を提供していません。

 その結果、実施手順の策定が不十分な自治体も少なくありません。セキュリティ対策の形骸化を防ぐためには、ChatGPTの利用に限らず、全てのシステムや部署において詳細な実施手順を整備することが重要です。

 ちなみに先進的な自治体の中には、ChatGPT利用に関する独自のガイドラインを策定し、職員の順守事項を明確化しているところもあります。しかし、新しいサービスへの対応や将来の改定を考慮すると、個別のガイドラインを作成するよりも情報セキュリティポリシーの一環として実施手順を整備する方が、より効率的な管理が可能になるでしょう。

       1|2 次のページへ

Copyright © ITmedia, Inc. All Rights Reserved.