|
今回で第8回を迎えたIntel Developer Forum(IDF)の生みの親は、現在IntelアーキテクチャグループのCTO(Chief Technology Officer、最高技術責任者)の任にあるパトリック・ゲルシンガー副社長だ。長期的視野に立ち、ソフトウェアであるかハードウェアであるかを問わず、将来のIAベースのコンピューティングに必要な技術の開発と、方向性の決定に責任を持つ、極めて重要なポジションにあると言って良いだろう。そのゲルシンガー氏が、前回(2000年秋)そして今回と、2回連続してキーノートスピーチのテーマに掲げたのがPeer To Peer Computing(P2P)だ。いわばIntelの技術的な将来を担う人物が、最も入れ込んでいるテーマこそP2Pなのである。ゲルシンガー副社長は、P2Pを「コンピューティングの次の革命」とさえ呼んでいる。
そのP2Pとは何か。一言で言えば、ネットワークに接続されたすべてのコンピュータが、サーバーやクライアントといった役割で区別されることなく、逆に言えばすべてのコンピュータがサーバーでもありクライアントでもある、という形態のコンピューティング環境を指す。といっても、あまりピンとこないかもしれない。P2Pの最も分かりやすい例として引用されるのが、今話題のNapsterだ。タイトルリストがサーバー上にあるという点で、Napsterを純粋なPeer To Peerと呼んで良いのかどうかは分からないが、音楽ファイルをサーバー上に置くのではなく、ユーザー同士が直接ファイル交換するという点で、P2Pの例だと考えられている。
つまり、ネットワークにつながったコンピュータ同士が、特定のサーバーを介することなく、互いのコンピュータリソースを交換可能になること、これがP2Pだ。Napsterの例では、交換されるリソースは音楽をMP3でエンコードしたファイルだが、別に交換するリソースがMP3ファイルである必要はない。現在のインターネットの帯域と、多くの人が欲しがる、ということのバランスが現時点でとれているのがたまたまMP3ファイルであるだけで、原理的にはデジタル化されたデータであれば何でも構わない。
インターネットの帯域がブロードバンド化することで、動画やゲームプログラムのようなものでさえ、P2Pの対象となり得る。加えて、ファイルではないリソース、たとえばコンピュータのアイドルサイクルを活かして、CPUの演算性能を提供する、といったこともP2Pの一例だと考えられている。
また、サーバーを介さずにリソースを交換することで、サーバーがネットワーク上のボトルネックになることを回避することも可能になる。たとえば、Internet Explorerの新版がリリースされた時など、http://www.microsoft.com/ が極端に重くなることを経験したユーザーも多いハズだ。これは、特定のサーバーにアクセスが集中するからにほかならない。こうした集中を回避するために、ミラーサーバーを設けることもよく行なわれているが、台数の制約もあり抜本的な解決にはなっていない。だが、もし新しいIEをダウンロードしたすべてのコンピュータが、IEのダウンロードサービスを提供するミラーサーバーにもなれるとしたら、状況は一変するハズだ。これもP2Pである。数カ月に1度の更新の際に生じる集中アクセスに備えて、普段は必要としないような大型サーバーを用意するといった無駄が省けるし、ダウンロードするユーザーも反応の悪いサーバーに悪態をつきながら、無駄に時間を費やすこともなくせる。
●Peer To Peerの問題点
もちろんコンピュータのリソースをエンドユーザーが直接交換するには、解決しなければならない問題も多い。NATやProxyの背後にあるコンピュータにどうやってアクセスするか、コンピュータ間の互換性をどうするか(Peer To Peer Computingに参加するのはPCだけでなく、ありとあらゆるコンピュータが参加するため、プラットフォームを問わないインターオペラビリティが求められる)、さらにはほかのコンピュータからのアクセスに対するセキュリティも確立されねばならない。こうしたことを議論し、解決する場として、Peer To Peer Working Groupが結成された。
とこう書いたところで、なぜP2Pが「革命」なのか、ピンとこない人も多いだろう。Napsterは現在、法廷で合法性を問われており、しかもかなり不利な状況だ。月額5ドル程度の有料サービスへの移行を検討しているとも言われているが、早ければ今週にもサーバーをシャットダウンする命令が出るのではないか、との声もある。Napsterには、「グレー」なイメージがどうしてもつきまとうし、それはP2Pにも重なる。
●デジタルデータのセキュリティ保護は重要だが……
P2Pが怪しげ? なものでないことを示すためにも、セキュリティの確立は非常に重大なテーマに違いない。サーバーという、ある意味で中央集権的な存在がないP2Pでは、管理や監視はより一層難しいと考えられるからだ。現在、デジタルデータの著作権保護のため、電子透かしのような技術の開発がいろいろなところで進められている。また、正当な権利者であることの認証を確実にするために、パスワードのような手段に代わって、指紋や虹彩を用いた認証システムも普及しつつある。こうした措置を施すことで、著作権を持ったデータも、Peer To Peerでやりとり可能にしよう、あるいはどのような経路で入手しようと、データを利用した場合に確実に課金することを可能にしよう、という方向で話が進められているようだ。
特に音楽産業や映画産業など、高価なコンテンツを持つ業界は、彼らが持つコンテンツをデジタル化する前提としてこのような保護を不可欠なものと考えているに違いない。だが、こうした技術はどこまで有効なのだろう。というより筆者個人は、このような試みについて、あまり信用していない(原稿を書き、それにより得られる原稿料で生活を支えている身でこういうことを言うのもなんなのだが)。どんな保護を施しても、それを破る方法を考える人間は必ずいる。そうした人間が利用できるコンピュータも、ムーアの法則により高速化していく。
何より、データをいったんアナログ化し、再デジタル化するというステップを踏まれれば、デジタルデータに対する著作権保護は、ほとんどの場合無効になる。それでは品質が劣化する、という意見もあるだろうが、数年前まで我々の多くがカセットテープで音楽を聴いていたという事実、CDではなくMP3で良いという事実が、品質の追求が絶対でないことを物語っている。
たとえば、現在6,200万人といわれるNapsterのユーザーに、毎月5ドル払って品質劣化のないMP3データをダウンロードすることと、音楽CDのアナログ出力をサウンドカードのライン入力から取り込みデジタル化したものを無償でダウンロードすることのどちらを選ぶか、といったら、大半が後者を選ぶのではないか(もちろん、後者は非合法なわけだが)。電子透かしの入ったテキストデータにしても、いったんプリントアウトし、ADF付きのスキャナで読み込みOCRすれば、アナログを経由した再デジタル化ができる(プリントアウトできなければ、画面キャプチャでも良い)。問題は、それだけの手間に見合うだけの価値があるか、オリジナルの価格とどちらが安くつくか、という比較の問題に過ぎない。
●P2Pが本当に革命的なわけ
ユーザー同士による直接のファイル交換を取り締まることは非常に難しい。現在は、現実的ではない膨大な量のデータであろうと、インターネットがブロードバンド化を続けるのであれば、動画だろうがプログラムだろうが、容易にデータ交換可能になってしまうだろう。おそらく、それが分かっているからこそ、MicrosoftはPeer To Peer Working Groupのメンバーにならないし、Windows XPに組みこまれるWindows Product Activationの背景にもこれがあるのではないかと、筆者には思えるのである。
率直に言えば、今世紀の半ばには、印税というシステムはなくなるだろうと考えている。つまり、どんな著作物であろうと、いったんデジタル化されてしまえば、その複製や配布について、制約を加えることは事実上不可能になってしまうのだと考えている。現在著作物は、それを初めて公表した時、そしてそのコピーが購入された時の2回に分けて課金される仕組みになっている。後者が印税である。しかし、デジタル化されることで、コピーのトラッキングが不可能になれば、事実上印税の徴収は不可能になるだろう。印税がなくなることで、文学、音楽、写真、映画など様々な複製文化が衰退の道を歩むことになるのか、新たな課金システムが考案されるのか。P2Pの革命には、こうした要素さえ含まれているのかもしれないと、筆者は思っている。
P2Pは、すべてのコンピュータによるコンピュータリソースの共有である。これは一種のIT共産主義とでもいうような、要素を含んでいる(ほかのコンピュータのアイドルサイクルを利用する場合、そのコンピュータの電気代を払うのは誰なのだろう?)。こうしたアイデアが、資本主義の権化とも言うべきシリコンバレーから登場したのは、とても興味深い。
□The Peer-to-Peer Working Group
http://www.peer-to-peerwg.org/
(2001年3月7日)
[Text by 元麻布春男]