Hatena::Group::Virtualization::takaochan RSSフィード

日記はこちら
2006 | 06 | 07 | 08 | 09 | 10 | 11 | 12 |
2007 | 01 | 02 | 03 | 04 | 05 | 06 | 07 | 08 | 09 | 11 |

2007/01/31 (水)

[]5分で分かる!サーバ仮想化のメリット 5分で分かる!サーバ仮想化のメリット - Hatena::Group::Virtualization::takaochan を含むブックマーク はてなブックマーク - 5分で分かる!サーバ仮想化のメリット - Hatena::Group::Virtualization::takaochan

いや、結局オチは5分じゃ…ってことなんですかね、これは。

http://www.atmarkit.co.jp/ad/hp/vse0701/vse01.html

[]VMware Converter 3 VMware Converter 3 - Hatena::Group::Virtualization::takaochan を含むブックマーク はてなブックマーク - VMware Converter 3 - Hatena::Group::Virtualization::takaochan

ストレージベンダーである米国EMCの子会社で、仮想化ソフトウェア最大手のヴイエムウェアは、サーバ仮想化を支援する移行ツールの最新版「VMware Converter 3」を近くリリースする。

http://www.computerworld.jp/news/sw/57029.html

さーてさてさて、色々検証せねばなぁ…。P2V Assistantに変わる仮想化ツールとしてVMware Converterがどれだけ使えるか。ホットマイグレーションがうまくいく方法も確認せねば…。ふむ。

[][]Veritas Cluster Server 5.0 for VMware ESX Server Veritas Cluster Server 5.0 for VMware ESX Server - Hatena::Group::Virtualization::takaochan を含むブックマーク はてなブックマーク - Veritas Cluster Server 5.0 for VMware ESX Server - Hatena::Group::Virtualization::takaochan

CS for VMware ESXはビジネス継続性を確保するために、アプリケーションのフェールオーバーを自動化し、クラスタ化された仮想および物理サーバーを管理します。VCS for VMware ESXはアプリケーション仮想マシンネットワークリンクサーバーの障害発生時のダウンタイムを短縮するのに最適なソフトウェアであり、1台のESXサーバーまたは構内やWAN全体のクラスタ管理を集中して処理します。VCSはVeritas Server Foundationの中核製品です。Veritas Server Foundationとは、データセンターサーバーで稼働しているソフトウェアを詳細に検出し、それらのサーバーを能動的に管理し、サーバーで稼働するミッションクリティカルアプリケーションを常に使用可能にする製品群です。

http://release.nikkei.co.jp/detail.cfm?relID=151359&lindID=1

VCSにfor ESXが登場したそうな。

こうした製品をどう使うかはかなり難しいですが、しっかり検証すれば他社との差別化に使えるかもしれません。

2007/01/29 (月)

[]中小企業向け仮想化 中小企業向け仮想化 - Hatena::Group::Virtualization::takaochan を含むブックマーク はてなブックマーク - 中小企業向け仮想化 - Hatena::Group::Virtualization::takaochan

米国ヒューレット・パッカードHP)は1月24日、企業のコンピュータインフラを診断評価し、仮想化技術をどのように導入できるかを提案するサービス「Virtualization Assessment Service」を2月1日から提供すると発表した。これにより、同社は中堅・中小企業(SMB)向け仮想化市場を開拓したい考えだ。

http://www.computerworld.jp/news/sw/56889.html

SMB向けの仮想化は市場として成立するようになるまでかなり時間がかかるであろうが、成立すれば、その市場は非常に大きい。

IBMHPも仮想化に取り組みだしているが、きっとまだ1,2年はSMB向け市場は試行錯誤が続くでしょうね。

2007/01/25 (木)

[]VI3 Demo Video VI3 Demo Video - Hatena::Group::Virtualization::takaochan を含むブックマーク はてなブックマーク - VI3 Demo Video - Hatena::Group::Virtualization::takaochan

日本製家電についてくる(誰も見ないであろう)説明ビデオみたい。

http://www.vi3demo.com/

RichardさんとJeremyさんだそうです。

[]Windows Virtualization Windows Virtualization - Hatena::Group::Virtualization::takaochan を含むブックマーク はてなブックマーク - Windows Virtualization - Hatena::Group::Virtualization::takaochan

動作環境は、インテルの「IntelVT」、およびAMDの「AMD-V」というハードウェア仮想化技術を搭載したプロセッサが必須となる。 Virtual Serverは、すべてがソフトウェアによってエミュレーションされてきたが、Windows Virtualizationは一部の機能にハードウェアエミュレーションを利用することで、Virtual Serverよりも10%以上のパフォーマンスアップが期待できるという。

http://www.itmedia.co.jp/enterprise/articles/0701/24/news005.html

ま、Windows Virtualizationが登場する頃にはIntel, AMDともに仮想化技術を搭載したCPUサーバ用途では一般化すると思われるので、特に問題はないでしょう。

もう一つ、Virtual Serverに対する大きな優位点として、マルチプロセッササポートが挙げられる。Virtual Serverは1プロセッサのエミュレートのみ可能だったが、Windows Virtualizationは最大8プロセッサまで対応。もちろん、64ビットOSの仮想化環境ネイティブサポートする。

逆に、ハードウェア仮想化技術を利用することで、マルチコアプロセッサの1コアに1つの仮想マシンを割り当てることも可能になる。

ただ、Virtual Serverと比較するのではなくMicrosoft VirtualizationはESX Serverと比較されていくようになるわけで、そういう意味ではこれらはアドバンテージではない。

一方、他のハイパーバイザ型仮想化ソフトウェアとの大きな違いと言えるのが、仮想化レイヤーを管理するための「ペアレント」と呼ぶサービスコンソールの部分だ。Windows Virtualizationでは、この部分がWindows Server "Longhorn"ベースになるという。Xenも、VMware ESX ServerもLinuxベースにしたコンソールを採用しており、大きな差別化になる。もちろん、ペアレントLonghornのフル機能が搭載されるわけではない。藤本氏によると、LonghornのServer Coreに近い形の実装になり、その上に仮想化環境管理ツールが搭載されるという。

このあたりの管理機能がどれだけ「便利」な機能を提供でき、ESX Serverと差別化できるかは重要だろう。

管理機能については、前述のようにServer Coreに近い実装上に管理ツールが搭載されるが、仮想化環境をより高度に運用管理するために、マイクロソフト運用管理ツール「System Center」ブランドの仮想化環境管理ツールが発売される予定だ。

物理サーバとして大きなシェアを持つ既存Microsoftサーバと統合した管理機能を提供することによりMicrosoftは本気で巻き返しを図ってくるでしょうね。いずれにしろ、2008年度あたりにはかなりの激戦が繰り広げられることになりそうです。

2007/01/23 (火)

[][]Unisys Enterprise Virtualization / Enterprise Orchestration Solutions Unisys Enterprise Virtualization / Enterprise Orchestration Solutions - Hatena::Group::Virtualization::takaochan を含むブックマーク はてなブックマーク - Unisys Enterprise Virtualization / Enterprise Orchestration Solutions - Hatena::Group::Virtualization::takaochan

この類のツールは優秀であればそれなりにもてはやされるだろうが、いかんせん、大元の仮想化ツールを開発しているVMware自身が実装してくる可能性があるだけに難しい。

米国ユニシス1月22日、仮想化システムを構築/保守するソフトウェアスイート「Unisys Enterprise Virtualization」および「Unisys Enterprise Orchestration Solutions」を発表した。Enterprise Virtualizationには、仮想化環境で利用されたコンピュータリソースの利用コストを、各部門に自動的に課金する「Real-Time Chargeback」などの機能が搭載されている。同機能により、複雑な課金処理の効率化を図れるという。

http://www.computerworld.jp/news/sw/56550.html

次期VMware ESX Serverではリソース使用量数値化の仕組みや、Orchestration的な機能が搭載されてくることは確実なわけで、そうした動きのなかでどこまで3rd Party製ツールをつかうかどうか判断は難しい。

[]VI3(ESX3.0.1&VC2.0.1) Patch VI3(ESX3.0.1&VC2.0.1) Patch - Hatena::Group::Virtualization::takaochan を含むブックマーク はてなブックマーク - VI3(ESX3.0.1&VC2.0.1) Patch - Hatena::Group::Virtualization::takaochan

ESX3.0.0からはvmkernelが数多くのモジュールから構成されるようになったため、パッチは小さいrpmの集合体に。

基本的にService Consoleのみを起動させて適用、再起動。Service Consoleモジュールの場合はVMkernelが起動したままでも大丈夫。

  • 1006511
  • 1410076
  • 2066306
  • 2158032
  • 6921838
  • 8173580
  • 998631
    • openssh-3.6.1p2-33.30.13vmw.i386.rpm
    • openssh-clients-3.6.1p2-33.30.13vmw.i386.rpm
    • openssh-server-3.6.1p2-33.30.13vmw.i386.rpm
    • openssl-0.9.7a-33.30.13vmw.i386.rpm
    • python-2.2.3-6.5.i386.rpm

VirtualCenterのPatch1はVCそのものの上書きインストール

  • Build32042→Build33643に

ま、細かいUpdate内容はVMwareサイト参照。

2007/01/19 (金)

[]Innotek - VirtualBox Innotek - VirtualBox - Hatena::Group::Virtualization::takaochan を含むブックマーク はてなブックマーク - Innotek - VirtualBox - Hatena::Group::Virtualization::takaochan

Intel CPUとなってからParallels, VMware Fusionと熱い仮想化アプリケーション争いの戦場となっているMacですが、第3の仮想化アプリケーションとしてVirtualBoxが登場しました。

Linux, Windowsはおおよそサポートしている模様ですが、ZetaやAROSは厳しい模様ですのでまだ仮想化アプリケーションとしての完成度はVMwareやParallelsに一歩遅れを取っている様子です。

Mac版の導入手順については以下を参照ください…。

http://journal.mycom.co.jp/column/osx/210/

[]Why blades are bad Why blades are bad - Hatena::Group::Virtualization::takaochan を含むブックマーク はてなブックマーク - Why blades are bad - Hatena::Group::Virtualization::takaochan

Blade server market leaders IBM and Hewlett-Packard Co. are both pouring resources in to developing their wares. Most recently, IBM added 10 GigE to its BladeCenter H platform. But, so far, these efforts haven't been enough to convince Rod Lucero, CTO of the Minnesotan VMware consultancy VMPowered, to recommend blade servers to customers undertaking large-scale virtualization and consolidation projects.

http://searchservervirtualization.techtarget.com/originalContent/0,289142,sid94_gci1239548,00.html

たしかにブレードサーバと仮想化システムの組み合わせは確かにベストプラクティスではない。やり方によってはハードウェアの集約率とシステムの仮想化を同時に実現する最適解である場合もあるだろうが、どんな環境にでもマッチする最適構成であるわけではない。

なんといってもブレードサーバは集約率を極限にまで高めるために、構成可能な範囲をかなり限定している。CPUの搭載数やメモリの搭載数、そしてNICポート数などである。ブレードサーバの種類によっては、NICを増やすとFCポートを搭載することができず、FCポートを搭載するとNICを増やすことができないなどの複雑な制約条件が課せられていたりする。また、ローカルHDDホットスワップ交換できないなどの制約があるものもある。ブレードサーバ筐体の各モジュールはほぼ冗長化されているが、それでも集約により障害が搭載されている全ブレードサーバに及ぶ可能性はある。ミッドプレーン障害によって全サーバダウンなどが発生する可能性がないとはいえない

たとえばESX Serverを構成する場合ではNICは4ポート以上、FCも2ポート以上搭載したサーバで構成することが望ましい。CPU数もマルチコア化が進んでいるとはいえ、最低限2CPUは必須といえる。メモリは特に必須事項はないが、可能な限り多くのメモリを搭載するに越したことはない。ブレードサーバを使用した場合、どうしても「可能な構成からベストプラクティスを検討する」というやり方になってしまい、ベストプラクティスを検討した結果に合わせてハードウェアを構成することはできない場合が多い。

何よりも、ブレードサーバは各社製品に互換性がないため、ユーザにとっては一度採用すると強力にロックインされてしまうという課題がある。せっかく仮想化システムによってシステムハードウェア呪縛から逃れたのに、ブレードサーバによって実際にはハードウェア呪縛から解き放たれていはいないのでは本末転倒かもしれない。また、各社が差別化のために様々な方法で独自機能を搭載していることのデメリットも考慮する必要がある。

個人的には2U Rack Mount Serverで2CPU(Dual or Quad Core), 8-16GB Memory, 4NIC(Gb), 2HBA,Local HDD(RAID1, ESX Server installed)のようなかたちでESXサーバを構成し、SANストレージと組み合わせて使用する構成が現時点では最もシンプルであり、かつ柔軟性も保つことができる構成であると思う。

2007/01/18 (木)

[]VMware Workstation & VMware Player導入ガイド VMware Workstation & VMware Player導入ガイド - Hatena::Group::Virtualization::takaochan を含むブックマーク はてなブックマーク - VMware Workstation & VMware Player導入ガイド - Hatena::Group::Virtualization::takaochan

最近はESX ServerやXen, Virtual Serverなどのサーバの仮想化に注目が集まっていますが、x86の仮想化で最先端を走るのは今でもWorkstation。だいたいWorkstationに新機能が追加され、それが次第にサーバ向け仮想化アプリケーションにも反映されていく、というのが一般的な流れです。そんなわけで、WorkstationとPlayerの導入記事。ま、参考まで。

個人ユーザで利用可能な仮想化テクノロジ製品としては、無料で提供されているVMware Playerや非常に低価格で利用可能なVMware Workstationという選択肢があり、これらを利用すれば、手元にある安価な市販型マルチコア系ハードウェアの処理能力を最大限に活用することができるのだ。

http://opentechpress.jp/developer/07/01/15/016216.shtml

最近クライアントPCでもマルチコアCPUが一般化してきたので、仮想化アプリケーションの使用は十分使用に耐えるパフォーマンスが期待できます。

[]導入ガイド 導入ガイド - Hatena::Group::Virtualization::takaochan を含むブックマーク はてなブックマーク - 導入ガイド - Hatena::Group::Virtualization::takaochan

システムの仮想化、という大きなくくりで考えればLinux環境の仮想化の1方法といえるUMLの導入記事。参考になります。

User Mode LinuxUML)を使えば、ホストLinuxカーネルユーザモードプロセスとしてLinuxカーネルを実行することが可能であり、1台の物理ハードウェア上で複数の独立した仮想マシンを容易に実行できる。

http://opentechpress.jp/developer/07/01/15/0111214.shtml

2007/01/15 (月)

[]Xen内部設計(前編) Xenの内部設計(前編) - Hatena::Group::Virtualization::takaochan を含むブックマーク はてなブックマーク - Xenの内部設計(前編) - Hatena::Group::Virtualization::takaochan

Xen環境では、それぞれのドメインに1つの仮想空間を割り当てています*(多重仮想空間)。x86IA-32)用Xenでは、仮想空間の上位アドレスの64MバイトXenが予約しており、ゲストOSが利用できるのは、残りの4Gバイトから64Mバイトを除いた空間です。

http://www.itmedia.co.jp/enterprise/articles/0701/15/news026.html

ふむ。Xenの場合は最大4GBまでしかメモリ空間を割り当てられないのかな?x86だからまぁそういうものか。

Xen環境では、Xen存在する領域を、ゲストOSから壊されないようにする必要があります。IA-32Xenでは、Xenを特権レベル0に配置し、準仮想化ドメインゲストOSを特権レベル1に配置します

WindowsでもLinuxでもOSカーネルがring0、Applicationがring3というのが一般的でしたが、Xenなどの仮想化では4つのringを活用する形でOSの仮想化を実現しています。

完全仮想化ドメインの場合は、XenゲストOSのどちらも、特権レベル0に配置します。ただし、VT機能を利用してXenをVMX rootオペレーションモードの領域に配置し、ゲストOSのあるドメインをVMX non-rootオペレーションモードの領域に配置します

CPUの仮想化機能によりringの概念に加えてオペレーションモードという縦割り分割もCPUサポートするようになりました。XenのFull VirtualizationやVMwareの64bit対応はこうしたCPU拡張を有効活用しています。

Xen上では複数のドメインが同時に動作します。しかしこれは見かけ上そう見えるというだけで、実際にはそれぞれのドメインに対してCPUの実行権を細かく振り分けるということをXenが行っています。

VMware ESX Serverと違い、デバイスドライバはDomain0にまかせるXenですが、CPUのスケジューリングはもちろんXenにより制御されます。この部分は仮想化に必須の機能であり、仮想化という機能そのものであるわけですので、この部分の実装は仮想化機能の特徴となります。

ドメインスケジューラには、sedfとbvtという2種類のスケジューリングポリシーが用意されていて、Xen起動時に選択できるようになっています。sedfは、Simple Early Deadline First schedulerの略で、bvdは、Borrowed VirtualTimer schedulerの略です。どちらも、リアルタイムスケジューリングベースとなっていて、標準スケジューラはsedfです。

こうした部分がXenの面白いところですね。VMware ESX Serverの場合はそうしたVMkernelの詳細は公開されていないわけで。

sedfは、一定期間ごとに一定のCPU時間ドメインに割り当てるアルゴリズムになっています。ドメインスケジューラが再スケジューリングを行うと、仮想CPUの切り替えが発生します。仮想CPUの切り替えが発生すると、現在動作している仮想CPUのコンテキスト待避させ、次に動作すべき仮想CPUのコンテキストを読み込みます。これは、プロセススレッド)と似た処理といえるでしょう。

…bvdについての説明がない…^_^;

Xen環境では、同じ物理アドレスを持つメモリが複数存在することになるので、多重物理メモリ空間とでも呼ぶべきかもしれません。XenはそれぞれのメモリドメインIDをつけ、どのドメイン物理アドレスであるかを管理します。実CPUメモリを操作するとき、または実デバイスを操作するときは、マシンアドレスを使わねばなりません

メモリ管理の部分は実装の手法はともかく、VMware ESX ServerもXenも同様ですね。ただ、VMwareの場合は同一OSVMをESX Server上で動作させると同一メモリ空間をシェアする機能がありますが、Xenにはないようです。ま、メモリシェアによるメモリ空間の節約と機能のシンプル化、高速処理化のバランスだと思いますが。

準仮想化ドメインでは、マシンアドレスを意識します。通常の処理は、標準のOSと同じく物理アドレスメモリを扱いますが、ページテーブルを操作するときとI/O要求を出すときは、物理アドレスマシンアドレスに変換します。マシンアドレスXenが管理するものですが、この2つの作業に限って、ゲストOSマシンアドレスを意識させます。

なるほど。Paravirtualizationであるがゆえに複雑になってしまう部分もあるということですね。

ゲストOSでは、ページテーブルの更新手段としてXenが用意している2種類の方法を使用します。

1つはダイレクトモードと呼ばれる方式で、ハイパーバイザコールを利用してページテーブルを変更する方式です。もう1つは書き換え可能ページテーブルモードと呼ばれる方式です。通常、ページテーブルは不正な値が書き込まれないように書き込み保護がなされていますが、書き換え可能モードを利用すると、一時的にページテーブルへの書き込みが可能となり、その妥当性確認は、ページテーブル更新後にXenがまとめて行います。

後者の方式を使うとページテーブルの更新が高速になるため、これら2つが併用されています

ページテーブルをいかに高速におこなうか。ページテーブル更新重要な機能であり、ここに問題があることは仮想化アプリケーションとしては致命的。処理の効率化と確実な処理。仮想化ソフトウェアの腕の見せ所ではあります。

完全仮想化ドメインでは、ゲストOSはページテーブルにすべて物理アドレス(と信じているアドレス)を設定します。しかし、これは本当にアクセスしたいメモリマシンアドレスで示されるメモリ)ではないため、CPUのMMUは利用できません。そこでXenは、ゲストOSが作るページテーブルに1対1に対応するシャドウページテーブルを用意し、そこにマシンアドレスを登録します。CPUには、このシャドウページテーブルを用いてアドレス変換を行わせます

…ということでFull Virtualizationにした場合はこの方法だけなわけですが、Full VirtualizationとParavirtualizationではページテーブル処理のスピードに違いはあるんでしょうかね?

[]VMware Virtualization Fair 2007 VMware Virtualization Fair 2007 - Hatena::Group::Virtualization::takaochan を含むブックマーク はてなブックマーク - VMware Virtualization Fair 2007 - Hatena::Group::Virtualization::takaochan

今年のVMware Virtualization Fairは赤坂プリンスで2/27開催。

http://www.vmware.com/ja/vmfair2007/

ozatozat2007/01/18 12:38>> VMware Virtualization Fair 2007
スポンサーがどの位置に居るのか、ってのを見て、他意はないのかもしれないのだけど、いろいろ深読みしてしまった。。。IntelとAMD とか、Cisco, citrix とか、とかとかとか。。。

2007/01/13 (土)

[]仮想マシンモニタ Xen 3.0解読室:第1回 Xenモデルと構造 仮想マシンモニタ Xen 3.0解読室:第1回 Xenのモデルと構造 - Hatena::Group::Virtualization::takaochan を含むブックマーク はてなブックマーク - 仮想マシンモニタ Xen 3.0解読室:第1回 Xenのモデルと構造 - Hatena::Group::Virtualization::takaochan

ITmediaXenの解説が始まっています。

仮想マシンモニタOSからハードウェアを隠蔽するものとして生まれた。複数のOSを、仮想マシンモニタの上で同時に実行できる。OS仮想マシンモニタから与えられた仮想マシン環境の中で動作する

http://www.itmedia.co.jp/enterprise/articles/0701/12/news010.html

良くも悪くも仮想化LayerをハードウェアOSの間に入れるのがシステムの仮想化なわけで、Xenの仕組みを通じて「仮想化とはどういうことなのか」ということを考えるきっかけとしてはいい連載。

Xenの大きな特徴は、2つあります。1つは仮想マシン環境構築に、準仮想化(paravirtualization)という手法を採用していることです。もう1つの特徴は、Xen自体がデバイスドライバを持たない点です。

Paravirtualizationはけっこう有名?ですが、デバイスドライバを持たない、という点はXen最大の特徴なのではないかと私は思います。

ハードウェア上で動作するOSは、特権命令を利用してハードウェアを制御します。一方、Xenの上で動作するゲストOSは、ハイパーバイザコールでXenに仮想的なハードウェアの制御を依頼します。

Xenは、自分自身では実デバイスを管理しておらず、ドメイン0と呼ばれる特別なドメインに実デバイスの制御を任せています*。ゲストOSが仮想デバイスI/Oアクセスを要求すると、そのままドメイン0に転送し、ドメイン0が代わりに実デバイスを操作するという仕組みになっています*。これは、非常に特徴のあるI/Oデバイス管理方式といえるでしょう。

ただ、Windowsの場合でもカーネルパニック最大の原因は3rd Party製のデバイスドライバ関連なわけで、おそらくLinuxの場合も同様。VMwareのように限られたハードウェアだけをサポートするという方向性と、XenのようにDomain0のOSデバイスドライバとして動作する方式のどちらがよいのかは色々と意見のあるところでしょう。

Xen 3.0からは完全仮想化されたドメインも提供するようになりました。完全仮想化ドメインでは、実在のハードウェアを完全にエミュレートします。完全仮想化ドメイン上で動作しているゲストOSは、自分自身が実ハードウェアで動作していると思い込んでいます。XenゲストOSハードウェアの操作を捕捉し、これをエミュレートします。

ただ、XenがFull Virtualizationをサポートするようになり、VMwareがParavirtualizationに進出するということから、どちらも用途や目的によってメリットデメリットがあり、どちらにも対応するということが結論となりそうです。

[]開発環境オンデマンドサービス 開発環境のオンデマンドサービス - Hatena::Group::Virtualization::takaochan を含むブックマーク はてなブックマーク - 開発環境のオンデマンドサービス - Hatena::Group::Virtualization::takaochan

日立ソフトウェアエンジニアリング1月12日、開発用のサーバー環境オンデマンドで提供する「Secure Online統制IT基盤提供サービス」を1月22日から開始すると発表した。VMwareを使った仮想サーバー上に、OSやミドルウエアなどを組み合わせた開発環境を提供する。

http://itpro.nikkeibp.co.jp/article/NEWS/20070112/258570/

んー…、VM上、しかもオンデマンドで開発ってどうなんだろ…

2007/01/11 (木)

[]Install Linux-Vserver Install Linux-Vserver - Hatena::Group::Virtualization::takaochan を含むブックマーク はてなブックマーク - Install Linux-Vserver - Hatena::Group::Virtualization::takaochan

概要、Full VirtualizationとPara Virtualizationの違い、などなど。

http://specialreports.linux.com/article.pl?sid=06/12/19/0456207&tid=136

(1/11追記)日本語訳あった。

http://opentechpress.jp/developer/07/01/10/0125237.shtml

2007/01/09 (火) このエントリーを含むブックマーク

VMware Workstation 6 Betaの話題が載っていました。

http://www.thincomputing.net/newsitem2941.html

ふむ。Workstationに対する需要ってどうなんだろうな。

2007/01/04 (木) このエントリーを含むブックマーク

[Marathon]Marathon everRun FT

Windows ServerのEnterprise版にはぜひマルチノードシステムを標準で用意して欲しい。

Marathonの製品で実現されているように、複数ノードから構成されるサーバクラスター上で仮想的にWindowsを動作させ、どれかのノードが停止してもまったく問題なく稼動し続けるような仕組みだ。OSにHypervisor機能が搭載されればそんなに大掛かりにせずに実現できそうなので、ぜひ。OS標準でマルチノードシステムを搭載すれば、けっこうアドバンテージになるとおもいますし、なんといってもWindowsがより売れますぜ、Microsoftさん。どう?そろそろMSCSも古びてきたしさ。

Marathon everRun FT」は2台のWindowsサーバーを同期実行し、既存クラスタシステムを超えるアプリケーション実行環境連続可用性(停止時間ゼロ)を実現。また「Marathon everRun HA」は、everRun FTと同様に、サーバー全体の障害発生時には入出力環境(ディスクネットワーク)の連続可用性を維持しながらアプリケーション実行環境の待機サーバーへの切り替えを実現する。

また、仮想化されたOS環境アプリケーションが稼動するため、クラスタ対応アプリケーションの利用やクラスタスクリプトなどのシステム設計・開発が不要で、維持・運用にかかる追加コストが不要。

http://www.sbbit.jp/news/3904/