スケーラビリティスケーラビリティ(scalability)とは利用者や仕事の増大に適応できる能力・度合いのこと[1]。電気通信やソフトウェア工学において、システムまたはネットワークまたはアルゴリズムの、持つべき望ましい特性の1つで、一種の拡張性である。より具体的には、小規模なシステムを大規模にする場合に、システム全体を交換する方法(建物で例えると大きな物件に引っ越すこと)では無く、リソース(特にハードウェア)の追加によって大規模なものへと透過的に規模拡張できる能力(建物で例えると、増築や別棟を建てること)はスケーラビリティの一種だといえる。リソースの量に比例して全体のスループットが向上するシステムはスケーラブルな(scalable)システムまたはスケーラビリティのあるシステムと呼ばれる。 対する概念としては、既存の仕組みを破棄してそれ以上の仕組みにするスクラップアンドビルドである。 システムの特性としてのスケーラビリティに一般的な定義を与えるのは難しい[2]。具体的な事例においては、問題としている領域でスケーラビリティを確保するための条件を特定することが必要である。これはデータベース、ルータ、ネットワークなど情報工学の分野において非常に重要なことである。スケーラビリティは分散処理の透過性の概念と密接なつながりがある。 スケーラビリティの高さは様々な尺度で評価される。例として
がある。スケーラビリティについて議論する際には規模透過性のみを問題にすることも多い。 例えば、スケーラブルなデータベース管理システムではプロセッサやストレージを追加することでより多くのトランザクションを処理できるようにアップグレードでき、またアップグレードをシャットダウンなしに実行できる。 ルーティングプロトコルがネットワークの規模に関してスケーラブルであると言われるのは、Nをネットワーク内のノード数としたときに、各ノードに必要なルーティングテーブルのサイズが O(log N) に従って増大するときである。 スケールアップとスケールアウトスケールアップ(垂直スケール)やスケールアウト(水平スケール)は、スケーラビリティの向上、すなわち性能・容量向上のための方法である。 スケールアップはシステムの単一のノードにリソースを追加する方法で、CPUやメモリの増強や、コンピュータ自体の買い換えなどである。スケールアウトはシステムにノードを追加することで、クラスタなどの並列コンピューティング技術を使用する方法である。現実のシステムではそれぞれ上限・制約・デメリットも存在するため、組み合わせも行われる。 システム設計では処理能力をあげることよりもハードウェアに関するスケーラビリティを高めることに力を入れろとよく言われる。システムのノードを増やして高いパフォーマンスを得るほうが、パフォーマンス・チューニングで個々のノードの処理能力を上げるよりも、大抵は安くつくからである。しかし、この手法ではノード数の増加に伴って利益が鈍化していってしまう。この問題はパフォーマンス・エンジニアリングで扱われる。例として部分的な並列化によって高速化が可能なプログラムを仮定する。並列化可能な部分は全体の70%とし、CPUを1個から4個にスケールアウトする。Fを逐次的な部分の割合とすると、(1 - F)が並列化される割合となる。P個のプロセッサを稼動して得られる最大の高速化(倍)は次の式(アムダールの法則)となる。 仮定した数値を代入すると、 が得られる。プロセッサを8個までスケールアウトすると が得られる。よってハードウェアを単純に追加していくのは、必ずしも最適な手法とはいえない。 ウィーク・スケーリングとストロングスケーリング高性能計算の分野で代表的なスケーラビリティの定義としては次の二つがよく用いられる。ひとつはストロング・スケーリング、あるいは強スケーリングと呼ばれ、全体の問題の大きさを保ってプロセッサ数を増やしたときに実行時間がどのように変化するかで定義される。もう一方はウィーク・スケーリング、あるいは弱スケーリングと呼ばれ、プロセッサあたりの問題の大きさを保ってプロセッサ数を増やしたときに実行時間がどのように変化するかで定義される。 その他の分野
似ているが違う概念
脚注
関連項目 |