このページの本文へ

ゼロからはじめるバックアップ入門 第10回

機器やメディアの進化を見ていこう

ホストから始まったバックアップの歴史を振り返る

2010年08月26日 09時00分更新

文● 伊藤玄蕃

  • この記事をはてなブックマークに追加
  • 本文印刷

1990年代ークライアント/サーバーの時代

 1990年には「ダウンサイジング」「オープンシステム」がコンピュータ業界の流行語となった。汎用機よりも安全性では劣るものの、コストパフォーマンスに優れたPCサーバーやUNIXサーバーが広範に使われるようになったのだ。

 汎用機に手が出なかった中小企業や、大企業でも大容量データを扱う情報系のシステムを中心として、PCサーバーやUNIXサーバーにデータを置き、パソコンを端末としてアクセスするクライアント/サーバー(C/S)型のシステムが続々と導入された。

 1990年代には、サーバーの出荷台数が爆発的に増えサーバーの単価が下がったため、バックアップ装置もそれに応じて安価で提供することが要求された。また、C/S型システムの多くは、ユーザーが業務の片手間に運用管理することが多かったため、バックアップの手間をさらに軽減する必要も生じた。

 そのため、C/S型システムでもCGMTがバックアップ媒体の主流となった。ひと口にCGMTといっても実際にはさまざまな規格がある。第4回でも紹介したが、1990年代の前半はQIC(Quarter Inch Cartridge)や8mmデータカートリッジなどさまざまな規格の製品が相応のシェアを分け合っていた(写真5)。

写真5 イメーションのQICメディア「MAGNUS2.5」

 しかし、1990年代の後半には、DAT(Digital Audio Tape)をベースにしたDDS(Digital Data Storage)が主流となった(写真6)。これらはどれも業界標準のオープンな規格として開発され、装置も媒体も多数のメーカーが製造したため記憶容量に対するコストが安かった。

写真6 圧縮時容量72GBのDATメディア(イメーション「DAT72」)

 このうち、DDSは記憶容量が大きく、読み書きの速度が速く、外寸も小さいため、バックアップ対象のデータが増えるにつれて徐々にDDSのシェアが高まっていった。また、オートチェンジャ装置も低価格となり一般に普及した。

 1990年代には、バックアップの要件に大きく影響する事件が2つあった。ともに1995年に起こった、兵庫県南部地震(阪神・淡路大震災)と地下鉄サリン事件である。災害および無差別テロが現実の問題としてクローズアップされ、DR(Disaster Recovery:災害復旧)を想定したバックアップの必要性が広く認知されたのである。それ以前から、金融機関や電力ガス会社など、社会的公共的に重要なサービス(社会インフラ)を提供する大企業では、BCP(Business Continuity Plan:事業継続計画)に基いて、DRを想定したバックアップを行なっていたが、1995年以降には、一般の企業であってもDRを意識するようになった

 第7回で紹介したが、具体的なDRの手段は、バックアップ媒体を遠隔地の耐震倉庫などに保管する、同時に被災しないよう十分に(おおむね数百km以上)離れた場所に複数のコンピュータセンターを設置し相互にサーバーおよびデータの複製を持つなどである。

 1990年代にはまた、企業の情報システムがインターネットなどの外部ネットワークと接続されるようになり、ウイルスによるデータ化けや消失、クラッキング行為による論理的なデータ破壊などのリスクが増大した。このため、クラッキングを想定したバックアップも行なわれるようになった。具体的には、クラッキング前の「クリーンな状態」であることが確実なシステム領域(OS、ミドルウェア、プログラム)のバックアップをいくつか確保し、安全な場所に保管することなどである。

(次ページ、「2000年代ーストレージ集中化の時代」に続く)


 

カテゴリートップへ

この連載の記事
  • 角川アスキー総合研究所
  • アスキーカード