規模の問題
僕はずっとP2Pの定義にこだわってきたんですけど (例: P2Pは究極的にはWebに収束するんじゃないかと)、 実はP2Pの諸問題って定義とは関係ないっぽいんですよね。 「P2Pを自称しているのがP2Pだ」というあたりで十分っぽい。
その話の1つとしては、
「情報共有(P2P)研究会」で
亀井さんの講演にあったんですけど、
トラフィックの文脈でP2Pが問題になって自宅サーバが問題にならないのは、
単にユーザ数の問題。
P2Pユーザ数が多く、自宅サーバを運営する人は少ない
ということらしい。
こうなると「P2Pと自宅サーバは何が違うんだ!」みたく
大上段に構えたところで何の意味もないんですね。
P2PとWebを対比させて考えるのも、
Webといえばデータセンターにあるものだけを考えていればよく、
自宅サーバは無視できるということなんでしょう。
これは僕としてはショックが大きかったです。 P2P方式に対してサーバ方式があって、サーバ方式だと負荷がうんぬんというのも、 原理的には変な話なんですけど、前提として、 データセンターにサーバがあって、みたいなのがあれば、 また話は変わってくるわけで。
というような理屈が 「しくみを知る:なぜファイル共有ソフトによる情報漏えいが怖いのか:ITpro」 にも共通していまして、 ファイル共有ソフトじゃなくたって 機密情報をアップローダに上げるようなウィルスだとか、 自分がHTTPDになって掲示板にURLを貼り付けるウィルスだって 同様の怖さがあるわけですが、 規模の問題としてファイル共有ソフトでの情報漏洩が問題になるわけですね。 一旦流出したファイルが消せないのはファイル共有に限ったことでもなくて、 アップローダからアップローダに 「有志」の手で転載されることだってあるんでしょうけど、 規模の問題としては無視できると。
その方向で本末転倒しちゃうと 「「利用者間の公平性確保」のための帯域規制がP2Pファイル共有ユーザを不公平に扱う - P2Pとかその辺のお話@はてな」 みたくプロトコルを見て帯域規制をしてしまえばよい、ということになってしまう。 あるいは 「P2Pプロトコルを使っていてヘビーユーザでないのは極少数の例外だから無視できる」 のかもしれない。 それは全くわからない。