そうか、その手があったか

こんにちは

テクノロジー : 日経電子版

IBMの新しいメインフレームSystem z10 BCは、PCサーバ232台分の処理能力である。
z10 ECの場合は1500台分のようなので、6分の1くらいなのだとか。

規模としては、中規模だが、性能としては申し分ないだろう。
それ自体は目新しいことではない。

注目すべきは、そのコンセプトのCoDである。

今回のz10 BCの最大の特徴は、ユーザーが必要とする能力に応じて料金を支払うという「キャパシティ・オン・デマンド(CoD)」方式の採用であろう。中でも「On/Off CoD」と言われる方式は、コンピューターの処理ピーク時に合わせ1日単位で処理能力を補充できる。処理能力は「トークン」という単位で管理され、購入したトークンに応じて追加できる。

従量課金方式でのハードウェアの提供

キャパシティーがある状態で顧客にハードウェアを提供するが、顧客の望む機能分しか値段は取らない。またそこには鍵をかけておいて動かないようにしておくものの、ニーズに応じてそれを使えるようにするというもの。

顧客の立場で考えた

それによって、顧客は必要な分だけを利用することで適切な使用量を払えばよく、将来的にキャパシティを増強したければ、それも素早くリーズナブルに可能である。顧客視点で考えた柔軟な設計だ。

ソフトウェアの世界では以前から行われていた

こういった考え方は、ソフトウェアの世界ではよくある考え方だが、ハードウェアでやるというのは今まではあまり見られなかった。CPUの値段やデバイスの値段が安くなってきたことによって実現できるようになったのだろう。

今までの問題点

今までであれば、将来的なキャパシティーに対応することを考えて、今後必要かもしれないということで必要以上のスペックのハードウェアに先行投資せざるをえなかった。その反動として、必要最低限のローエンドのPCサーバを組み合わせて増強していったのだろう。

だが、それは増強するに従い、非効率化によるハードウェアのオーバーヘッドが発生し、エネルギー効率やスペース効率が悪くなっていく。また、キャパシティの増強において、素早い対応ができず、いくらハードウェアが安くても、高度な技術を持つエンジニアにコストがかかってしまう。

PCサーバというのは、クローンなどではなく、人間一人一人と同じように個性があって、単純に増やして繋げていくことはできないのである。

PCサーバを組み合わせていくことはスケールメリットが出るどころか、セキュリティ対策や障害対応などで多大なオーバーヘッドを生じる。それに見合うコストをかけなければ、セキュリティトラブルによる漏洩や障害などによる情報の被害が生じてしまう。

また、複雑に組み合わされた、230台分のPCサーバを、中型メーンフレームに一度に移行するのは、難しい。また、移行コストがかかってしまう。せっかくPCサーバを組み合わせてローコストでやってきたのに後で多額のコストを負担するはめになる。

であれば、最初からある程度のキャパシティーのポテンシャルを持ったハードウェアで稼働しつつ、必要に応じて利用し増強し、使用量を払っていく方が理にかなっている。

ベンダー側と顧客側と双方に多大なメリットをもたらす、素晴らしいコンセプトだ。目から鱗が落ちた。

ではまた