クラウド・コンピューティングの課題として、よく言われるのが可用性と信頼性だ。それには、3つの要素が相互に関係している。
まず、ひとつは、PCサーバーの信頼性。昔に比べて、PCサーバーの信頼性は、高まったとはいえ、銀行の勘定系に使えるレベルには無い。だから、可用性を高めるためには、冗長度を高めなければならない。しかし、冗長度を高めれば高めるほど、今度は、運用管理が複雑となり、システム全体を見たときの信頼性は、再び低下する。
PCサーバーの魅力は、取得金額(TCA:Total Cost of Acquisition)が安いことにあるが、それは同時に信頼性もその金額に見合うものという現実をうけいれることでもある。それでは困るということで、冗長度を高めれば、今度は、TCO負担が増大する。結局は、どこかでこの両者に折り合いをつけなければならない。
二つ目は、ミドルウェアの組み合わせ。たとえば、クラウド環境を構築する上で欠かせないのが、仮想化だ。これには、サーバーの仮想化やストレージの仮想化がある。また、分散ファイル管理機能も必要だ。さらには、負荷配分のための機能も必要になる。このように、クラウド環境を実現するためには、さまざまなミドルウェアが介在する。
これらミドルウェアを単体で取り出せば、夫々に責任の所在も明確であるだろうし、各社完成度を高めるための努力は行われている。しかし、いったいそれらシステムの組合わせについては、誰が責任をもってくれるのであろうか。
結局は、運用事業者の責任となるのだが、彼らにも、全体の信頼性を保証できる根拠が無い。従って、ユーザーにクレームされれば、「ネットワークの障害です」、「相性の問題です」、「仕様なので仕方がありません」という言い訳で、乗り切るしかない。
最後は、ネットワークの信頼性だ。いうまでも無く、インターネットにQOSを求めることには無理がある。セキュリティ上の課題も存在する。従って、たとえデータセンター・システムの可用性を高めたとしても、ネットワークが、ボトルネックとなることは、さけられない。
PCサーバー、ミドルウェア、ネットワークが、夫々に持つ信頼性と可用性についての限界。それらが、組み合わさることで、さらにシステム全体として、信頼性と可用性は、低下せざるを得ない。というか、そもそも、だれが保証してくれるのかという、責任の所在、つまり、トータル・クオリティ・マネージメントが、できない状況の下で、提供されているのが、現在のクラウド・コンピューティング(厳密に申し上げれば、パブリック・クラウド)の現実だ。
このような現実であっても、99.9%や99.95%を保証するというわけであるから、これは相当の努力であり、技術力だと思うべきかも知れない。しかし、ユーザーにとっては、彼らがどのような努力をしていようとも、結果として、求める可用性が提供されなければ、基幹系、勘定系ではつかえない。
そこでであるが、品質や信頼性に、過剰なまでに神経質な我が国民気質が、このクラウドに新しい可能性を提供してくれるのではないかと密かに期待している。「高信頼性クラウド・コンピューティング・サービス」という切り口だ。ノーダウン、QOS、低コストのクラウド・サービスである。
どうやって、これを実現するかといえば、「メインフレーム」と「NGN」の組合わせだ。
何をいまさら、メインフレームと言われるかもしれないが、メインフレームは、ここ数年劇的に進化している。自分が、元IBMの営業だからというわけではない。最近、改めてメインフレームを勉強しなおし、それを実感した。
残念ながら、メインフレームにまともに開発投資し続けているメーカーは、IBMだけである。その予算は、年間1000億円を超えるという。その集大成が、System/z。
たとえば、一台のPCサーバーに仮想化ミドルを導入し、いったい何台の仮想マシンを動かすことができるだろうか。まず、10台を動かすことは無理だろう。現実的な運用を考えれば、数台がいいところだ。しかし、メインフレームならば、比較的小規模なモデルであっても、簡単に数十台、規模が大きくなれば、数百台、数千台は問題なく稼動する。
これは、単にプロセッサー能力の問題ではない。基本機能として持っている高度な負荷管理機能、入出力の負担を専門で請け負うプロセッサーであるチャネルの存在。ハードウェア・レベルで仮想化を実現するLPARなどなど。昔から、高価なメインフレームというシステム資源を、できるだけ多くのユーザーに同時に使ってもらうための研究開発の蓄積が、今大いに生かされている。
限られたシステム資源をできるだけ多くのユーザーにサービス・レベルを保証しながら、しかもノンストップで利用させる技術。これに、半導体やストレージの価格性能比の向上が組み合わさって、「高価なメインフレーム」の汚名を返上しつつあるようだ。
「ソリューション営業塾」で、メインフレームについて話したときの資料を以下に掲載する。
また、System/zは、ネイティブで、Linuxが稼動する。もちろん、複数の仮想マシンの上で多重に稼動するのである。IBMの資料によれば、40万人で3900台のLinuxサーバーを使っているのだが、これを30台のメインフレームに集約しようというプロジェクトが進んでいるそうだ。これによって、TCOは、90%削減される。
メインフレームは、ハードウェアからOS、ミドルウェアまで、すべてIBM一社が、その組合わせに責任を持っている。全体の責任の所在が明らかであり、全体で相互の稼動を保証し、最適化されている。
そもそも、メインフレームは、その設計思想上、ノンストップである。故障しても稼働中に修理し、復旧できるように作られている。PCサーバーでよく行われる「リブート」などという、ごまかし操作はありえない。そのプラットフォーム上で動くLinuxシステムの可用性もまた、同じレベルが保証される。
ひとつのシステムあたりの多重度が高まれば、システムの運用管理負担も低減し、信頼性も高まる。その結果、ユーザーあたりのTCOも低下する。
System/z同様に、IBM/i(旧AS/400)も同様の思想の上に作られている。ネイティブOSに加え、Linuxも動くし、Windowsも、同時多重で稼動する。これであれば、比較的規模の小さな事業者でもサービス環境を構築可能であろう。
さらに、わが国が誇る高信頼性のIPネットワークであるNGNサービスを組合せば、AmazonやGoogleとは、異なる「高信頼性クラウド・コンピューティング・サービス」を実現できるのではないだろうか。
別に、IBM製品を売り込みたいわけでもなければ、NTTさんの回し者ではない。あくまで、客観的な視点で考えてみた結果だ。
この両者の組合わせは、クラウドの弱点を克服し、しかも日本人の感性にも符合するのではないか。
日本発世界に向けたクラウド・サービスのひとつの可能性として、考えてみてもいいのではないかと思う。
まず、ひとつは、PCサーバーの信頼性。昔に比べて、PCサーバーの信頼性は、高まったとはいえ、銀行の勘定系に使えるレベルには無い。だから、可用性を高めるためには、冗長度を高めなければならない。しかし、冗長度を高めれば高めるほど、今度は、運用管理が複雑となり、システム全体を見たときの信頼性は、再び低下する。
PCサーバーの魅力は、取得金額(TCA:Total Cost of Acquisition)が安いことにあるが、それは同時に信頼性もその金額に見合うものという現実をうけいれることでもある。それでは困るということで、冗長度を高めれば、今度は、TCO負担が増大する。結局は、どこかでこの両者に折り合いをつけなければならない。
二つ目は、ミドルウェアの組み合わせ。たとえば、クラウド環境を構築する上で欠かせないのが、仮想化だ。これには、サーバーの仮想化やストレージの仮想化がある。また、分散ファイル管理機能も必要だ。さらには、負荷配分のための機能も必要になる。このように、クラウド環境を実現するためには、さまざまなミドルウェアが介在する。
これらミドルウェアを単体で取り出せば、夫々に責任の所在も明確であるだろうし、各社完成度を高めるための努力は行われている。しかし、いったいそれらシステムの組合わせについては、誰が責任をもってくれるのであろうか。
結局は、運用事業者の責任となるのだが、彼らにも、全体の信頼性を保証できる根拠が無い。従って、ユーザーにクレームされれば、「ネットワークの障害です」、「相性の問題です」、「仕様なので仕方がありません」という言い訳で、乗り切るしかない。
最後は、ネットワークの信頼性だ。いうまでも無く、インターネットにQOSを求めることには無理がある。セキュリティ上の課題も存在する。従って、たとえデータセンター・システムの可用性を高めたとしても、ネットワークが、ボトルネックとなることは、さけられない。
PCサーバー、ミドルウェア、ネットワークが、夫々に持つ信頼性と可用性についての限界。それらが、組み合わさることで、さらにシステム全体として、信頼性と可用性は、低下せざるを得ない。というか、そもそも、だれが保証してくれるのかという、責任の所在、つまり、トータル・クオリティ・マネージメントが、できない状況の下で、提供されているのが、現在のクラウド・コンピューティング(厳密に申し上げれば、パブリック・クラウド)の現実だ。
このような現実であっても、99.9%や99.95%を保証するというわけであるから、これは相当の努力であり、技術力だと思うべきかも知れない。しかし、ユーザーにとっては、彼らがどのような努力をしていようとも、結果として、求める可用性が提供されなければ、基幹系、勘定系ではつかえない。
そこでであるが、品質や信頼性に、過剰なまでに神経質な我が国民気質が、このクラウドに新しい可能性を提供してくれるのではないかと密かに期待している。「高信頼性クラウド・コンピューティング・サービス」という切り口だ。ノーダウン、QOS、低コストのクラウド・サービスである。
どうやって、これを実現するかといえば、「メインフレーム」と「NGN」の組合わせだ。
何をいまさら、メインフレームと言われるかもしれないが、メインフレームは、ここ数年劇的に進化している。自分が、元IBMの営業だからというわけではない。最近、改めてメインフレームを勉強しなおし、それを実感した。
残念ながら、メインフレームにまともに開発投資し続けているメーカーは、IBMだけである。その予算は、年間1000億円を超えるという。その集大成が、System/z。
たとえば、一台のPCサーバーに仮想化ミドルを導入し、いったい何台の仮想マシンを動かすことができるだろうか。まず、10台を動かすことは無理だろう。現実的な運用を考えれば、数台がいいところだ。しかし、メインフレームならば、比較的小規模なモデルであっても、簡単に数十台、規模が大きくなれば、数百台、数千台は問題なく稼動する。
これは、単にプロセッサー能力の問題ではない。基本機能として持っている高度な負荷管理機能、入出力の負担を専門で請け負うプロセッサーであるチャネルの存在。ハードウェア・レベルで仮想化を実現するLPARなどなど。昔から、高価なメインフレームというシステム資源を、できるだけ多くのユーザーに同時に使ってもらうための研究開発の蓄積が、今大いに生かされている。
限られたシステム資源をできるだけ多くのユーザーにサービス・レベルを保証しながら、しかもノンストップで利用させる技術。これに、半導体やストレージの価格性能比の向上が組み合わさって、「高価なメインフレーム」の汚名を返上しつつあるようだ。
「ソリューション営業塾」で、メインフレームについて話したときの資料を以下に掲載する。
また、System/zは、ネイティブで、Linuxが稼動する。もちろん、複数の仮想マシンの上で多重に稼動するのである。IBMの資料によれば、40万人で3900台のLinuxサーバーを使っているのだが、これを30台のメインフレームに集約しようというプロジェクトが進んでいるそうだ。これによって、TCOは、90%削減される。
メインフレームは、ハードウェアからOS、ミドルウェアまで、すべてIBM一社が、その組合わせに責任を持っている。全体の責任の所在が明らかであり、全体で相互の稼動を保証し、最適化されている。
そもそも、メインフレームは、その設計思想上、ノンストップである。故障しても稼働中に修理し、復旧できるように作られている。PCサーバーでよく行われる「リブート」などという、ごまかし操作はありえない。そのプラットフォーム上で動くLinuxシステムの可用性もまた、同じレベルが保証される。
ひとつのシステムあたりの多重度が高まれば、システムの運用管理負担も低減し、信頼性も高まる。その結果、ユーザーあたりのTCOも低下する。
System/z同様に、IBM/i(旧AS/400)も同様の思想の上に作られている。ネイティブOSに加え、Linuxも動くし、Windowsも、同時多重で稼動する。これであれば、比較的規模の小さな事業者でもサービス環境を構築可能であろう。
さらに、わが国が誇る高信頼性のIPネットワークであるNGNサービスを組合せば、AmazonやGoogleとは、異なる「高信頼性クラウド・コンピューティング・サービス」を実現できるのではないだろうか。
別に、IBM製品を売り込みたいわけでもなければ、NTTさんの回し者ではない。あくまで、客観的な視点で考えてみた結果だ。
この両者の組合わせは、クラウドの弱点を克服し、しかも日本人の感性にも符合するのではないか。
日本発世界に向けたクラウド・サービスのひとつの可能性として、考えてみてもいいのではないかと思う。
---------------------
おかげさまで、ここまでランクアップいたしました。
ありがとうございます。↓↓
0 件のコメント:
コメントを投稿