雑種路線でいこう

ぼちぼち再開しようか

崎山さんからの指摘を踏まえた論点整理

うーん、やってしまった。たぶん与野党の原案を参照せず白紙で考えたこともあって、あちこち誤爆してしまったようだ。お陰で配慮すべき境界もだいぶ見えてきたので、ご指摘を念頭に弊害の小さな案を改めて組み立ててみたい。

全体として、「高めのボール」といっても高すぎるのではないか。そして、高くしようとして高くしたものの、それが効果的に高いというよりは、無駄に高いボールになっているような。

政策目標

有害コンテンツ規制を何のためにやるかというと、児童を守るため、ということになっている。で、僕は有害情報というのは文脈依存で定義し難いという立場を取るが、与野党の有害情報規制に関する案から類推して、彼らが何をしたいかは理解できる。恐らく、満たすべき政策目標は以下の3つと推定できる。

  • ネットを通じた違法行為・犯罪被害(麻薬・買春)や非行(家出・自殺)の誘発防止
  • 猥褻及び残虐な情報へのアクセス防止
  • ネットいじめの迅速な解決

これらの政策目標へ向けて制度整備が必要であるかについては、

  • ネットによって全体的に青少年による違法行為・犯罪被害や非行は増えたのか
  • 青少年による猥褻及び残虐な情報へのアクセスを何のために規制するのか
  • そもそもネットいじめを外形的に定義できるのか、また、コンテンツ規制で防げるのか

といった疑念がある。但し、あえて前向きに検討するならば、

  • 違法行為や非行が増えているかは別として、近年の青少年による違法行為や非行がネットを媒介にしている事案が少なからずあることを鑑みて、ネットで適正な管理を行うことにより、かかる行為の媒介を防止することは可能ではないか
  • リアルな世界でも刑法が社会的法益である善良な風俗のために公然猥褻を禁止していることを踏まえ、ネットでも同等の規定があってもよいのではないか。また、教育段階に応じて子供にみせるものを親が決める権利があり、かかる技術的保護手段は提供すべきではないか
  • いじめは主観的な被害であり、有害コンテンツとして規定することは難しいが、いじめ被害者の迅速な救済は重要ではある。実社会や学校で大人が子供のいじめを仲裁できるのと同様に、子供のいじめに大人が適正な関与をする方法を提供する必要はあるのではないか。

といったこともいえるのではないか。

満たすべき要件

では、これらの政策目標を実現するにあたり、制度はどういった要件を満たすべきだろうか。

  • ネットとリアルでの規制の一貫性を保つ
  • 明確な保護法益と政策目標を設定する
  • 政策評価指標を策定してPDCAサイクルを回す
  • 過度の検閲とならないよう、運用の透明性を確保する
  • 技術革新へ柔軟かつ迅速に適応し、事業者の萎縮を避ける
  • 運用の安定性を担保すべく、価値中立的で外形的な規制とする

あと、法的には以下の条件を満たしている必要がある。

有害コンテンツを先験的に定義せず政策目標を達成する手法の検討

なぜ有害コンテンツを的確に表現することが難しいかは、崎山さんがうまく説明しているので引用する。

表現それ自体が問題だというよりは「違法行為を直接的かつ明示的に請負・仲介・誘引等」しているという、表現よりは行動としての面が問題になるので、「コンテンツ」だけで判断できるようなものではなく、極めて文脈依存なのであったりする(現状の「違法情報」でも、このようなものはあるが)。

「違法行為を直接的かつ明示的に請負・仲介・誘引等」していることが問題なのであれば、事案が発生したサイトに対して、事後的に再発防止策を義務付けてはどうだろうか。猥褻・残虐な情報から善良な風俗を守るという話なら、情報通信融合法制に於ける公衆通信・オープンメディアといったコンセプトに習って、自由にアクセスできるネットコンテンツを、公共の場と位置づけることが考えられる。ネットいじめの迅速な解決についても、いじめ現場を有害コンテンツとして規制しようとするから、文脈から独立して有害なる概念を規制できないのであって、サイト管理者に対して、いじめ現場に対して保護者や関係者からの適正な是正措置を図る機会を提供する義務を課す方法も考えられる。

民間窓口機関間の情報共有

違法・有害コンテンツについて、窓口機関に業務が集中した場合に、窓口機関の規模が野放図に拡大するのは望ましくないので、民民で解決する枠組みを提供することが望ましいと考えた。例えば弁護士と国選弁護人のような関係だ。但し窓口機関業務を有害情報だけでなく違法情報削除の実務にも広げる場合に、事案データベースは共有しなければ実態把握できないので、共通の情報インフラ上に各窓口機関が情報を上げて、政府機関に情報を集約する必要はあるだろう。各窓口機関は自分のアップロードした情報と、政府機関が集約・加工した業務遂行に要する情報にアクセスできるかたちが考えられる。崎山さんの指摘するように、このデータベースの運営には反社会的な人間の関与を防ぐ仕組みも必要となるだろう。

現状のインターネットホットラインセンターも、法律に基づいて設置されたわけではないから第三者参入を妨げるものではないが、どちらかというと窓口の乱立による混乱を防ぐ意識のほうが現状は先にあるのではないかとは思う。ただ、ポータルサイトISPが総合ワンストップサービスを提供する意義はそれとは独立にあるとは思うが。とりあえず、インターネットホットラインの通報窓口の使いにくさはなんともいえないものがあるので、そういう部分は改善されるだろうし。ただ、違法判定部分について、違法情報の蓄積をしていかないと効率が上がらないだろうから、警察からの情報提供を可能にするという方向と、一定のセキュリティレベルを確保し反社会的な人間が運営に関与しないように縛りをかけるという方向と、両方の意味で法的に担保していくアプローチはあるだろう。

表現の自由の尊重

ここはご指摘の通り。では、例えば違法コンテンツを閲覧した場合に通報義務を課すのはどうだろうか。

「違法コンテンツへのアクセスに届出制を導入する」というのは、普通に考えて通信の秘密の侵害でアウト。たとえ情報発信が違法とされる内容でも、その全般へのアクセスや受信を原則違法化するのはダメだろう。

外形安全基準の策定

有害コンテンツを外形的に定義できないという立場を取るとすれば、違法コンテンツについてはnotice and takedownルールを適用する一方、有害コンテンツについては、事案が発生したサイトに対して段階的な是正勧告を出すことが妥当ではないか。また事案データベースを蓄積したところで、事案の発生要因を分析し、事実に基づいて外形的な安全基準を定めるというのはどうだろうか。

「ネット安全利用技術の評価手法を確立し有効な技術を推奨する」とのことだが、そもそもフィルタリング技術やゾーニング技術の「実現すべき機能や品質検証」の、どの程度までが価値中立なもので、どこから先が価値観に踏み込んだ領域なのか、という問題がある。

サイト管理者の管理責任範囲

年齢属性証明のない従来からの一般のコミュニティサイト(普通のブログも含むよ)を、そのままならつぶせといっているようなものだもの。管理責任を問うというのは、現実的な水準での対処ではなくて、大きな萎縮効果をもたらしうるだろうから。仮にSNSのようなユーザーコミュニケーションに重点のあるものをうまく定義づけるとしても、それはどうだろうというか。児童を中心とする若いユーザーが集まるコミュニティサイトに安心できる機能として加えていくという話であれば、それこそゾーニングとして、基準を満たしたサイトですよというラベルがついていればいいという話ではないのか。

確かにサイト管理者に対していきなり管理責任を問うことは、どこまでやれば犯罪を防げるか分からない以上、やりすぎではある。工事現場に囲いをするように、一般のコミュニティサイトが年齢属性証明と連携したくない場合に、簡単に子供を排除したといえる仕組みはあった方がいいだろう。セルフラベルは有効な方法ではある。何が児童にとって危ないかを法案に書ききることが難しい現実を鑑みて、事案発生時にサイト管理者に対して、サイトの特性に応じてセルフラベル、ログイン管理・年齢属性証明、ネットいじめ対応窓口の用意など、段階的な業務改善命令を出すことが現実的ではないか。
これらの論点を踏まえ、近日中に改めて実効的かつ法的安定性の高いゾーニング政策パッケージ私案を整理したい。