ITmedia NEWS > ネットの話題 >

「青少年ネット規制法」成立はほぼ確実 その背景と問題点津田大介(2/3 ページ)

» 2008年04月09日 16時46分 公開
[津田大介,ITmedia]

 2000年以降のパソコンの低価格化やブロードバンドの普及、日本独自のケータイカルチャーや、アバターなどのコミュニケーションサービスの進化などによって、未成年が低年齢のうちからネットに接続することが当たり前になった。個人的には青少年を有害な情報にアクセスできない「無菌状態」にして育てるのが教育的に“正しい”ことだとは思わないが、かといってゾーニングやレーティングといったように現状法律や自主規制の枠組みの中で規制されているポルノや暴力的コンテンツを今後もネットだけは何の規制もなしに放置(18歳未満もアクセス可能に)しておくわけにもいかないという気持ちもある。

フィルタリングは弊害が大きすぎる

 問題は実際にフィルタリングという形で規制を行う場合の実効性と、それによる弊害がどれだけ生じるか、という話だ。

 この法案の実効性については、高市議員自身NIKKEI NETのインタビューで、規制によって完全な実効性を保障できるわけではないことを認めている。つまり、彼女の根底には「フィルタリングですべて解決できるわけではないが、しないよりマシならやるべき」という考えがあるのだ。そしてそれらは、「表現の自由」や18歳未満の「知る権利」よりも上回ってしかるべき――そしてそれは社会的にも容認される――という絶対的な自信に裏打ちされたもののようにも思える。

 しかし大前提として、フィルタリングから得られる「青少年の健全な育成」の効果よりもそれを超える弊害の方が多いのならば、拙速に規制を強化するべきではないのではないか。

 現実的な運用面でもっとも問題になりそうなのは、有害情報の定義だろう。前述の(1)ポルノコンテンツ、(2)暴力コンテンツについては、規制についてのある程度の“実績”もあるし、比較的定義付けもしやすい。ポルノはゾーニング(フィルタリング)で対処し、暴力的コンテンツは映画や有害図書規制などと近い基準のレーティングやセルフラベリングに基づいてフィルタリングすればOKだろう。

 (3)の自殺、児童売春を助長させるコンテンツ、(4)の違法薬物情報については、どこからどこまでを「有害」と定義するのか微妙な部分が残る。極端な話をすれば、ページに散りばめられたキーワードに基づいてフィルタリングをかける「キッズgoo」のようなシステムの場合、犯罪を誘発するかどうか分からないサイトもフィルタリングされてしまうからだ。

 例えばキッズgooで「自殺」と検索すると、上位20件のうち15件のページがフィルタリングされる。しかし、実際の検索結果を見てみるとフィルタリングされた15件のうち6件は自殺問題を統計・資料的に研究するようなサイトである(いわゆる「自殺サイト」と呼ばれるような掲示板サイトは3件)。このフィルタリングの精度を高いと見るか、低いと見るかは人によって様々だろうが、こうしたフィルタリングが問題のない情報のアクセスまで遮断していることは事実である。

 自殺サイトをきっかけにした自殺や、薬物汚染、出会い系サイトの隆盛による売春のカジュアル化など、ネットが現実の犯罪と結びつく事例が出てきているのも疑いのない現実だ。ただ(3)(4)の問題の場合、起点となっているものの多くが掲示板形式・コミュニケーションサービスであるということを忘れてはならない。事例がパターン化していることを考慮すれば、従来の犯罪事例に基づいてコミュニティやCGMサイトの運営者が共通で使える安全基準やサイトフィルタリングのためのガイドラインを作ることで、法規制ではない自主規制という形で実効性のある有害情報対策が行えるはずだ。

「いじめサイト」はフィルタリングできない

 もっとも問題が大きいのは(5)ネット上のいじめ(学校裏サイトなど)に対する規制だろう。これは「学校裏サイト」と呼ばれる掲示板や、SNSなどのコミュニケーションサービスを通じて行われる「いじめ」を有害情報として規制するものだが、「いじめ」に該当する言語をフィルタリング技術で定義するのは非常に難しい。

 今までも「荒れる」ことを避けるために掲示板にNGワードを設定してきたサービスは少なくないが、特定のワードがフィルタリングされることを学んだ子どもは「隠語」を作ることでそうしたフィルタリングをすり抜けてきた。

 純然たるコミュニケーションサービスの場合、(1)〜(4)のようにある程度の精度で機械的にフィルタリングできるわけではない。コミュニケーションとは「単語」そのものでは意味を成さず、文脈に依存するからだ。

 仲の良いクラスメイトに対して「お前バカだな!」と褒める文脈の書き込みをした場合と、いじめの対象になっている人間に対して「お前バカだな!」と書き込む場合で当然文脈は異なるわけだが、それを機械的に判断することはほぼ不可能だ。それらを一緒くたにフィルタリングすることで、健全なコミュニケーションまで阻害されてしまう懸念がある。

 自民党案では、有害情報が書き込まれた場合、Webサイト管理者に対しては18歳以上の者を会員とするサイトへの移行措置と、フィルタリングソフトへのラベリング情報の提供を義務付けている。これを月間100億近くのPVを誇るディー・エヌ・エー(DeNA)の「モバゲータウン」に適用して考えた場合、どうなるか。

Copyright © ITmedia, Inc. All Rights Reserved.