通信速度向上から垣間見えるコンピュータ技術の開発動向
—今起こりつつあるシステム全体の変革—

コンピュータ理工学部 ネットワークメディア学科 安田 豊 講師

今起こりつつあるシステム全体の変革

 コンピュータの歴史においては、通信速度の向上やCPUの処理能力の向上と、それにともなうユーザの使い方の変化が相まって、さらなる技術の発展が求められるという、上昇のスパイラルが繰り返されてきました。現在、そのスパイラルがシステム全体にかかわる変革を呼び起こそうとしています。その一端はすでに最先端のサービスで実際に使われ、新しいライフスタイルを私たちにもたらしました。近い将来、もっと身近に利用されることで、生活全般に変革を起こすかもしれません。ネットワークシステムがご専門の安田豊先生に、通信速度の向上がもたらすコンピュータシステム全体の変革についてお話しいただきました。

上がり続ける通信速度

 コンピュータと呼べるものが登場してからおよそ70年。その間にコンピュータの処理能力は驚くほど向上しました。

 それと並行してコンピュータネットワークもまた、その処理能力を上げ続けています。

  1960年代の銀行業務を皮切りに、ネットワーク利用の裾野は広まり、今ではほとんどの人がスマートフォンやパソコンから毎日インターネットを空気のように特に意識せず利用しています。

 これを実現したのは通信の高速化です。1960年代には一秒間に300ビット※1ほどしか送れなかったのですが、1980年代頃から技術開発によって急速に性能を上げ、いまや国内では毎秒 100メガビット(1億ビット)のインターネット接続サービスが普及しています。(この毎秒100メガビット、を以後100Mbps(Mega、bits、per、sec)と書きます)

※1 ビットはデータの単位の一つで、1ビットで0と1の二つの値を持てる。ビット8桁で0〜255までの値が表現できるが、これが(皆さんご存じの)1バイト。

システム構造の変化

 提供できるデータの量が増えると、ユーザの使い方も変わります。

 Web が広まり始めた 1994年頃はせいぜい文字と静止画だけでしたが、今では動画、マウスでぐりぐりと移動できる地図、ゲームなどあらゆるものが提供されています。

 そしてシステムの構造そのものにも変化が現れます。

 2005年頃、この「ぐりぐりと移動できる地図」であるGoogle Mapsを手本として多くのアプリケーションがWebブラウザ上で使えるようになりました。

 それまでパソコンと言えば「ソフトウェア」をインストールして使うものでしたが、今ではメイル、カレンダーなど多くの作業が「サービス」としてネットワークの向こう側で処理されるスタイルになりました。

巨大なコンピュータとしてのデータセンター

 ここ最近、急速に拡大したサービスの一つであるFacebookのユーザ数は8.5億人※2です。

 この世界中のユーザから浴びせられる大量の処理要求を、Facebookは数万台のコンピュータを一カ所に集めてさばいています。

  Facebookに限りません。同じように大量のユーザを持つGoogle、Amazon、Apple、Evernoteなど、多くの企業が大量のコンピュータを集めた施設、データセンターによって処理を行っています。

 いまやデータセンターが一つの巨大なコンピュータシステムになったと考えれば良いでしょう。

※2 Facebook社は2012.2のIPO申請書で2011年12月末の月間アクティブ・ユーザー数を8億4500万人と報告している。http://www.sec.gov/Archives/edgar/data/1326801/000119312512034517/d287954ds1.htmTrends in Our User Metrics, "As of December 31, 2011,we had 845 million MAUs (Monthly Active Users)W

10Gbpsネットワークがすぐ近くまで

 こうしたデータセンターでは、そこにあるすべてのコンピュータをネットワークで接続して処理を分担しています。

 そしていま、処理の高速化のために10Gbpsネットワーク(恐らくあなたのパソコンの10倍速です)の導入が進んでいます※3

 まだまだコンピュータネットワークの高速化は続くのです。しかもこの高速化はあなたがたのパソコンにもすぐ反映されます。つまりとても近い時期に、あなたの机にあるパソコンも10Gbps対応になるのです。

 この背景には今のCPU開発の技術トレンドがあります。

※ 3 2011 年12 月 EE Times, http://eetimes.jp/ee/articles/1112/05/news033.html

CPU設計方針の変化:並列・大量データ処理へ

 1970年頃の誕生以来、パソコンのCPUは一貫して処理速度の向上を実現してきましたが、2005年頃にその限界が見えてきました※4

 そこでCPU会社は発展方向を単体速度ではなく並列度、つまり複数の計算を同時にできるだけ多く行う方向に切り替えました。すでにIntelは8コア(並列度では16)の製品を売っています。

 こうした方向性の変化は、ユーザの使い方にも変化をもたらします。

 この種の並列プロセッサが最も有効に働く用途の一つは大量データ処理です。画像処理、メディア処理はその典型例だと考えれば、ここ何年かでそれらが前面に押し出されてきた理由が分かると思います※5

※4 原因は熱。1cm四方しかないCPUが100W以上発熱するのだが、これは電気ヒーターと同程度の熱。

※5 GPU(グラフィクスプロセッサ)の高速化も重要な要素であるが紙面の制約もあり、ここでは触れない。

再び通信の高速化へ

 そして大量データ処理のために、CPUは高速なネットワークを要求しています。

 2011年7月、Intelは10Gbitのネットワークチップ(部品)開発で有名なFulcrum社を買収しました※6

 じきにIntel社のCPUと10Gbitネットワークが搭載されたパソコンが(戦略的な価格設定で)店頭に並ぶようになるでしょう。

 そしてインターネットの接続速度、実質上の転送速度も、それに呼応してもっと高速になるでしょう。

 技術が利用者の欲求を押し、その需要が技術発展の背中を再び押すのです。

※6 http://www.computerworld.jp/topics/629/ネットワーク基盤/201715/インテル “インテル、次世代通信プラットフォーム「Crystal Forest」を発表” ここに、IntelがCrystal Forestとして高速ネットワークをプロセッサと統合するという記事がある。

システム全体のバランスを感じる

 ここまで、幾つかの事について話しました。しかしそれらの話は皆つながっていることが分かるでしょうか。

 ネットワークの高速化、CPU の高速化によって「ちょっと画像が出るのが速くなった」「ちょっと処理が速くなった」などと喜ぶのは余りに近視眼的で、視野が狭いです。

 それより最も大きく変わるのはシステム全体の設計バランスです。

 ネットワークの高速化がコンピュータの機能そのものをネットワークの向こう側に移した。それを実現しているデータセンター内での通信の高速化が、再びあなたのパソコンを加速する。

 そうした変化の方がよほど面白いことはないですか。

 そんな風に今起きている変化の全体を俯瞰し、システム全体を揺るがす設計の根幹をどうすべきか。つまりグランドデザインについて考え、実際にそれに携わる機会が多いことは情報技術分野のとても良いところだと思います。

安価な最高性能品

 TOP 500というWebサイトがあります。スーパーコンピュータ(スパコン)と呼ばれる、性能を極限まで高めたコンピュータシステムの上位500をランキングしています。

 ランク上位を見ると、最上位の「京コンピュータ」こそ富士通製の(あまり見かけない)CPUを使っていますが、それ以外のスパコンのCPUはほとんどIntelあるいはAMD製の「誰でも普通に買える」CPUです。

 F1マシンのように、多額の費用を掛けて特別なエンジンを開発して性能を上げるのではなく、普通のCPUを大量につないで巨大なシステムが作られているのです。

 これはいったい何故でしょう。

 その理由は、単体性能で見れば「誰でも普通に買える」CPUが、世界で最も高性能なCPUだからです。

 性能競争の結果、半導体、特にCPUは数千億円単位の開発投資が必要な状況になりました。

 そしてエンジンと違って、半導体は開発投資に較べて製品単品の原価が紙切れのように安いのです。

 巨額の投資を大量の製品販売でまかなう必要が生じ、大量に売れる製品にしか性能向上に必要な開発投資が掛けられなくなっています。

 最も安価な、最大の量販品こそが最高の性能をもつ。

 ちょっと面白い構造ではないですか?

コンピュータ理工学部 ネットワークメディア学科 安田 豊 講師

プロフィール

博士(工学)。専門はネットワークシステム。インターネットのトラフィック制御について研究している。他にも分散システム、従量課金、電子現金、Thin Serverなど、未来のネットワーキングに関わる全般に興味を持つ。情報技術に関する若い人のためのワクワクするような紹介記事や読み物が、世間に不足していると感じて、自らシリコンバレーなどで取材、執筆もこなす。京都市立紫野高校OB。

PAGE TOP