約6週間、週3回にわたったペン大ロースクールでの講義、Internet Lawが先週終わった。ネットの中立性議論のスペクトラムにおいて、もっともそれに反対する立場で論陣を張るChristopher Yoo教授のクラス。ラディラルな立場に触れるというのは、物事の本質がより分かるという好例だったように思う。落としどころをすぐに探るような軟弱な議論では結局真理に至れないということを改めて思い知らされるような講義だった。
その期末試験が来週行われる。
試験対策というよりも、インターネットの在り方に関する純粋な関心から、講義を少し振り返って日々ブログしてみようと思う。全体を体系的に設計して書くことを全く意図しないで書くつもりなので、これからどう展開するか分からないけど。
どこから始めようかと思ったけど、まずは有名なこの本から。ロレーンス・レッシグ著「コモンズ」。以前ブログでも紹介したレッシグは、ネットワークの中立性を擁護する立場で知られる。
この本における彼の主題は、インターネットと、それが商業・非商業のイノベーションや創造性に与える影響について。インターネットのある特性を、誰からも(政府からも、市場からも)コントロールされないという意味での「フリー」な状態に保つことが、イノベーションや創造性の発展とって重要であると主張する。また、彼はその考え方を、ネットワークのレイヤー(層)に分けて議論を展開する。すなわち、いちばん下の「物理層」、真ん中の「論理層」または「コード層」、そして一番上の「コンテンツ層」の3つ。
ここでは、「コード層」における彼の主張をまとめてみようと思う。
1. すべての社会はフリーなリソースと、コントロールされたリソースとを持っている。ここで「フリー」というのは、「無料」という意味ではなく、i) 人がそれを他の人の許可を得ずに使えること、または、ii) 必要とされる許可が中立的に与えられることをいう。
2. これらのフリーなリソースを「コモンズ(共有地)」と呼ぶことにする。「コモンズ」の例としては、アインシュタインの相対性理論やパブリックドメインにある著作物が挙げられる。なお、「コモンズ」にあるリソースには経済学でいうところの競合的なリソースと非競合的なリソースの両方を含み、その別を問わない。
3. この「コモンズ」がイノベーションや創造性にとってきわめて重要である。そしてインターネットはイノベーションのコモンズを形成する。
4. インターネットにおけるコモンズは、規範によって形成されるだけでなく、技術的なアーキテクチャ、具体的には、インターネットの「end-to-end(e2e)=エンドツーエンド」設計を通じて形成される。これは、ネットワークにおける知性はエッジ(終端)、つまりアプリケーションに置いて、ネットワーク自身はデータ転送のみを取り扱い、比較的単純にしようという考え方である(dumb pipe=バカなパイプ論)。
5. この「e2e」原理こそがインターネットの最大の成功要因だったといえる。このアーキテクチャがインターネット上のイノベーションを可能にした。その理由は、i) アプリケーション開発者はネットとの接続性以上のことを考慮することなくアプリケーションのイノベーションのみに集中することができ、ii) ネットワークはその初期の設計者が想定していなかったアプリケーションにも開放されており、iii) そしてアプリケーションやコンテンツに中立的だからである。
6. インターネットの初期の設計者が「e2e」を基本設計として選択したのは、将来的にインターネットがどのようなアプリケーションに利用されるかについて予測ができなかったためである。逆にいえば、賢い、インテリジェントなネットワークを設計することにより、ある種の利用方法には最適化されるが、それが高度化されているが故にもともと想定していなかった別の利用方法を制約してしまうという事態を避けることをあえて選択したのである。
7. ただし、e2e(=知性はエッッジに、ネットワークはシンプルに)という当初のインターネットの基本設計が将来的にも担保されているとはいえない。実際、e2e原理にも代償はある。例えば、一部のアプリケーションはリアルタイム性を必要とするため(例:インターネット電話、ビデオチャット)、サービス品質が保てない問題が顕在化している。この問題への対応として、「Quality of Service (QoS)」と呼ばれる機能がインターネットに備えられるようになった。これは、ネットワークがアプリケーションごとにどのクラスのサービスを受けるべきかを判断し、クラスごとに予め定められた優先的な取り扱いをするものである。こうした追加機能は、あるアプリケーションやコンテンツを差別的に取り扱うという意図せざる危険性をはらんでいる。
8. 一方で、基本的に無限の帯域性が確保されれば、ネットワーク上のコントロールを増やすことをとどめることは可能だともいえる。ただし、民間のプレーヤーが無条件にインフラに投資し続けることは考えずらい。むしろ彼らがインフラプロジェクトから利益を得るのは、そこに優先順位づけの技術が組み込んである場合である。
9. ここに「共有地の悲劇」がある。e2eを核とするネットのアーキテクチャがイノベーションのコモンズを形成してきたなら、「共有地の悲劇」とは産業界がそれをつぶすようなテクノロジーをネットに追加しようとすることだ。
要するに、e2e、すなわちインターネットの「コード層」をコントロールがないという意味での「フリー」な状態に保つことでネット上のイノベーションを促進してきたにも関わらず、産業界(ISPやインフラ企業)は逆に、ネットにコントロールを与えるための設計を埋め込む方向に動きつつある。これは由々しき事態である、と。
この考え方に対するYoo教授の反論はまた次のエントリーで。
ちなみに、インターネットはもともと1960年代に終わりの米国国防省のプロジェクトから始まったのは有名な話。ARPANETと呼ばれたこのネットワークの設計に関する基本的な考え方は、ここに詳しい。
David D. Clark "The Design Philosophy of the DARPA Internet Protocols"
http://www.cs.princeton.edu/~jrex/teaching/spring2005/reading/clark88.pdf
また、エンドツーエンド原則を提唱した有名な論文はこちら。
J.H. Saltzer, D.P. Reed and D.D. Clark "End-to-end arguments in system design"
http://web.mit.edu/Saltzer/www/publications/endtoend/endtoend.pdf
(続く)
その期末試験が来週行われる。
試験対策というよりも、インターネットの在り方に関する純粋な関心から、講義を少し振り返って日々ブログしてみようと思う。全体を体系的に設計して書くことを全く意図しないで書くつもりなので、これからどう展開するか分からないけど。
どこから始めようかと思ったけど、まずは有名なこの本から。ロレーンス・レッシグ著「コモンズ」。以前ブログでも紹介したレッシグは、ネットワークの中立性を擁護する立場で知られる。
![]() | コモンズ (2002/11/30) ローレンス・レッシグ 商品詳細を見る |
この本における彼の主題は、インターネットと、それが商業・非商業のイノベーションや創造性に与える影響について。インターネットのある特性を、誰からも(政府からも、市場からも)コントロールされないという意味での「フリー」な状態に保つことが、イノベーションや創造性の発展とって重要であると主張する。また、彼はその考え方を、ネットワークのレイヤー(層)に分けて議論を展開する。すなわち、いちばん下の「物理層」、真ん中の「論理層」または「コード層」、そして一番上の「コンテンツ層」の3つ。
ここでは、「コード層」における彼の主張をまとめてみようと思う。
1. すべての社会はフリーなリソースと、コントロールされたリソースとを持っている。ここで「フリー」というのは、「無料」という意味ではなく、i) 人がそれを他の人の許可を得ずに使えること、または、ii) 必要とされる許可が中立的に与えられることをいう。
2. これらのフリーなリソースを「コモンズ(共有地)」と呼ぶことにする。「コモンズ」の例としては、アインシュタインの相対性理論やパブリックドメインにある著作物が挙げられる。なお、「コモンズ」にあるリソースには経済学でいうところの競合的なリソースと非競合的なリソースの両方を含み、その別を問わない。
3. この「コモンズ」がイノベーションや創造性にとってきわめて重要である。そしてインターネットはイノベーションのコモンズを形成する。
4. インターネットにおけるコモンズは、規範によって形成されるだけでなく、技術的なアーキテクチャ、具体的には、インターネットの「end-to-end(e2e)=エンドツーエンド」設計を通じて形成される。これは、ネットワークにおける知性はエッジ(終端)、つまりアプリケーションに置いて、ネットワーク自身はデータ転送のみを取り扱い、比較的単純にしようという考え方である(dumb pipe=バカなパイプ論)。
5. この「e2e」原理こそがインターネットの最大の成功要因だったといえる。このアーキテクチャがインターネット上のイノベーションを可能にした。その理由は、i) アプリケーション開発者はネットとの接続性以上のことを考慮することなくアプリケーションのイノベーションのみに集中することができ、ii) ネットワークはその初期の設計者が想定していなかったアプリケーションにも開放されており、iii) そしてアプリケーションやコンテンツに中立的だからである。
6. インターネットの初期の設計者が「e2e」を基本設計として選択したのは、将来的にインターネットがどのようなアプリケーションに利用されるかについて予測ができなかったためである。逆にいえば、賢い、インテリジェントなネットワークを設計することにより、ある種の利用方法には最適化されるが、それが高度化されているが故にもともと想定していなかった別の利用方法を制約してしまうという事態を避けることをあえて選択したのである。
7. ただし、e2e(=知性はエッッジに、ネットワークはシンプルに)という当初のインターネットの基本設計が将来的にも担保されているとはいえない。実際、e2e原理にも代償はある。例えば、一部のアプリケーションはリアルタイム性を必要とするため(例:インターネット電話、ビデオチャット)、サービス品質が保てない問題が顕在化している。この問題への対応として、「Quality of Service (QoS)」と呼ばれる機能がインターネットに備えられるようになった。これは、ネットワークがアプリケーションごとにどのクラスのサービスを受けるべきかを判断し、クラスごとに予め定められた優先的な取り扱いをするものである。こうした追加機能は、あるアプリケーションやコンテンツを差別的に取り扱うという意図せざる危険性をはらんでいる。
8. 一方で、基本的に無限の帯域性が確保されれば、ネットワーク上のコントロールを増やすことをとどめることは可能だともいえる。ただし、民間のプレーヤーが無条件にインフラに投資し続けることは考えずらい。むしろ彼らがインフラプロジェクトから利益を得るのは、そこに優先順位づけの技術が組み込んである場合である。
9. ここに「共有地の悲劇」がある。e2eを核とするネットのアーキテクチャがイノベーションのコモンズを形成してきたなら、「共有地の悲劇」とは産業界がそれをつぶすようなテクノロジーをネットに追加しようとすることだ。
要するに、e2e、すなわちインターネットの「コード層」をコントロールがないという意味での「フリー」な状態に保つことでネット上のイノベーションを促進してきたにも関わらず、産業界(ISPやインフラ企業)は逆に、ネットにコントロールを与えるための設計を埋め込む方向に動きつつある。これは由々しき事態である、と。
この考え方に対するYoo教授の反論はまた次のエントリーで。
ちなみに、インターネットはもともと1960年代に終わりの米国国防省のプロジェクトから始まったのは有名な話。ARPANETと呼ばれたこのネットワークの設計に関する基本的な考え方は、ここに詳しい。
David D. Clark "The Design Philosophy of the DARPA Internet Protocols"
http://www.cs.princeton.edu/~jrex/teaching/spring2005/reading/clark88.pdf
また、エンドツーエンド原則を提唱した有名な論文はこちら。
J.H. Saltzer, D.P. Reed and D.D. Clark "End-to-end arguments in system design"
http://web.mit.edu/Saltzer/www/publications/endtoend/endtoend.pdf
(続く)
スポンサーサイト
[PR] 台湾ワーキングホリデー
2009/12/14(月) | インターネットの規制をめぐる考察 | トラックバック(0) | コメント(2)