自動スケーリングの概要
自動スケーリングは Service Fabric のもう 1 つの機能であり、サービスによって報告される負荷またはリソースの使用量に基づいて、サービスを動的にスケーリングする機能です。 自動スケーリングは優れた柔軟性を提供し、必要に応じてサービスのインスタンスまたはパーティションを追加でプロビジョニングできます。 自動スケーリングは、プロセス全体が自動化された透過的なものであり、サービスのポリシーを設定した後は、サービス レベルの手動でのスケーリング操作は必要ありません。 自動スケーリングは、サービスの作成時に有効にできます。または、サービスを更新することでいつでも有効にできます。
自動スケーリングが役に立つ一般的なシナリオは、特定のサービスにかかる負荷が時間の経過と共に変化する場合です。 たとえば、ゲートウェイなどのサービスは、着信要求を処理するために必要なリソースの量に基づいてスケーリングできます。 その場合のスケーリング ルールがどのようになるかの例を見てみましょう。
- ゲートウェイのすべてのインスタンスが平均して 2 つ以上のコアを使用している場合は、インスタンスを 1 つ追加することで、ゲートウェイ サービスをスケールアウトします。 この追加を 1 時間ごとに行いますが、インスタンスの合計数が 7 つを超えることはありません。
- ゲートウェイのすべてのインスタンスが平均して 0.5 未満のコアを使用している場合は、インスタンスを 1 つ削除することで、サービスをスケールインします。 この削除を 1 時間ごとに行いますが、インスタンスの合計数が 3 つより少なくなることはありません。
自動スケーリングは、コンテナーと通常の Service Fabric サービスの両方でサポートされます。 自動スケーリングを使用するには、Service Fabric ランタイムのバージョン 6.2 以降が実行されている必要があります。
この記事の残りの部分では、スケーリング ポリシーと自動スケーリングを有効または無効にする方法について説明し、この機能をどのように使用するかの例を示します。
自動スケーリングの記述
Service Fabric クラスター内の各サービスに対して、自動スケーリング ポリシーを定義できます。 それぞれのスケーリング ポリシーは、2 つの部分で構成されます。
スケーリング トリガーは、サービスのスケーリングがいつ実行されるかを記述します。 トリガーに定義された条件が定期的にチェックされ、サービスをスケーリングする必要があるかどうかが決定されます。
スケーリング メカニズムは、トリガーされたときにスケーリングをどのように実行するかを記述します。 メカニズムは、トリガーの条件を満たす場合にのみ適用されます。
現在サポートされているすべてのトリガーは、論理負荷メトリック、または CPU やメモリ使用量などの物理メトリックのいずれかで機能します。 どちらの場合でも、Service Fabric は、報告されるメトリックの負荷を監視し、定期的にトリガーを評価してスケーリングが必要かどうかを決定します。
自動スケーリング用に現在サポートされているメカニズムは 2 つあります。 1 つ目はステートレス サービスまたはコンテナー用であり、自動スケーリングは、インスタンスを追加または削除することで実行されます。 ステートフル サービスとステートレス サービスでは、自動スケーリングは、サービスに対して指定されたパーティションを追加または削除することで実行することもできます。
注意
現時点では、サービスごとにスケーリング ポリシーが 1 つだけサポートされており、スケーリング ポリシーごとにスケーリング トリガーが 1 つだけサポートされています。
インスタンス ベースのスケーリングで使用するパーティションの平均負荷トリガー
トリガーの 1 つ目の種類は、ステートレス サービス パーティション内のインスタンスの負荷に基づいています。 メトリック負荷が平滑化されてパーティションのすべてのインスタンスの負荷が取得された後、これらの値がパーティションのすべてのインスタンスで平均化されます。 サービスのスケーリングのタイミングを決定する 3 つの要素があります。
- "負荷のしきい値の下限" は、サービスがスケールインされるタイミングを決定します。 パーティションのすべてのインスタンスの平均負荷がこの値よりも小さい場合、サービスはスケールインされます。
- "負荷のしきい値の上限" は、サービスがスケールアウトされるタイミングを決定します。パーティションのすべてのインスタンスの平均負荷がこの値よりも大きい場合、サービスはスケールアウトされます。
- "スケーリング間隔" は、トリガーをチェックする頻度を決定します。 トリガーがチェックされ、スケーリングが必要な場合は、メカニズムが適用されます。 スケーリングが必要でない場合は、アクションは行われません。 どちらの場合も、トリガーは、スケーリング間隔が経過するまで再度チェックされることはありません。
このトリガーは、ステートレス サービス (ステートレス コンテナーまたは Service Fabric サービス) でのみ使用できます。 サービスに複数のパーティションがある場合、トリガーはパーティションごとに個別に評価され、パーティションごとに指定されたメカニズムが個別に適用されます。 そのため、サービス パーティションのスケーリング動作は、負荷によって異なる場合があります。 サービスの一部のパーティションがスケールアウトされ、一部のパーティションがスケールインされている可能性があります。 同時に、一部のパーティションはまったくスケーリングされていない場合もあります。
このトリガーで使用できる唯一のメカニズムは、PartitionInstanceCountScaleMechanism です。 このメカニズムを適用する方法を決定する 3 つの要素があります。
- "スケールの増分" は、メカニズムがトリガーされたときに追加または削除されるインスタンスの数を決定します。
- "最大インスタンス数" は、スケーリングの上限を定義します。 パーティションのインスタンス数がこの制限に達すると、負荷に関係なくサービスはスケールアウトされなくなります。 この制限は、値 -1 を指定することで解除できます。その場合、サービスは可能な限りスケールアウトされます (上限はクラスターで使用可能なノードの数になります)。
- "最小インスタンス数" は、スケーリングの下限を定義します。 パーティションのインスタンス数がこの制限に達すると、負荷に関係なくサービスはスケールインされなくなります。
インスタンスベースのスケーリングのための自動スケーリング ポリシーの設定
アプリケーション マニフェストの使用
<LoadMetrics>
<LoadMetric Name="MetricB" Weight="High"/>
</LoadMetrics>
<ServiceScalingPolicies>
<ScalingPolicy>
<AveragePartitionLoadScalingTrigger MetricName="MetricB" LowerLoadThreshold="1" UpperLoadThreshold="2" ScaleIntervalInSeconds="100"/>
<InstanceCountScalingMechanism MinInstanceCount="3" MaxInstanceCount="4" ScaleIncrement="1"/>
</ScalingPolicy>
</ServiceScalingPolicies>
C# API の使用
FabricClient fabricClient = new FabricClient();
StatelessServiceDescription serviceDescription = new StatelessServiceDescription();
//set up the rest of the ServiceDescription
AveragePartitionLoadScalingTrigger trigger = new AveragePartitionLoadScalingTrigger();
PartitionInstanceCountScaleMechanism mechanism = new PartitionInstanceCountScaleMechanism();
mechanism.MaxInstanceCount = 3;
mechanism.MinInstanceCount = 1;
mechanism.ScaleIncrement = 1;
trigger.MetricName = "servicefabric:/_CpuCores";
trigger.ScaleInterval = TimeSpan.FromMinutes(20);
trigger.LowerLoadThreshold = 1.0;
trigger.UpperLoadThreshold = 2.0;
ScalingPolicyDescription policy = new ScalingPolicyDescription(mechanism, trigger);
serviceDescription.ScalingPolicies.Add(policy);
//as we are using scaling on a resource this must be exclusive service
//also resource monitor service needs to be enabled
serviceDescription.ServicePackageActivationMode = ServicePackageActivationMode.ExclusiveProcess
await fabricClient.ServiceManager.CreateServiceAsync(serviceDescription);
PowerShell の使用
$mechanism = New-Object -TypeName System.Fabric.Description.PartitionInstanceCountScaleMechanism
$mechanism.MinInstanceCount = 1
$mechanism.MaxInstanceCount = 6
$mechanism.ScaleIncrement = 2
$trigger = New-Object -TypeName System.Fabric.Description.AveragePartitionLoadScalingTrigger
$trigger.MetricName = "servicefabric:/_CpuCores"
$trigger.LowerLoadThreshold = 0.3
$trigger.UpperLoadThreshold = 0.8
$trigger.ScaleInterval = New-TimeSpan -Minutes 10
$scalingpolicy = New-Object -TypeName System.Fabric.Description.ScalingPolicyDescription
$scalingpolicy.ScalingMechanism = $mechanism
$scalingpolicy.ScalingTrigger = $trigger
$scalingpolicies = New-Object 'System.Collections.Generic.List[System.Fabric.Description.ScalingPolicyDescription]'
$scalingpolicies.Add($scalingpolicy)
#as we are using scaling on a resource this must be exclusive service
#also resource monitor service needs to be enabled
Update-ServiceFabricService -Stateless -ServiceName "fabric:/AppName/ServiceName" -ScalingPolicies $scalingpolicies
パーティション ベースのスケーリングで使用するサービスの平均負荷トリガー
2 つ目のトリガーは、1 つのサービスのすべてのパーティションの負荷に基づいています。 最初にメトリック負荷が平滑化されて、パーティションのすべてのレプリカまたはインスタンスの負荷が取得されます。 ステートフル サービスでは、パーティションの負荷はプライマリ レプリカの負荷であるとみなされ、ステートレス サービスでは、パーティションの負荷は、パーティションのすべてのインスタンスの平均負荷であるとみなされます。 これらの値がサービスのすべてのパーティションで平均化され、その値を使用して自動スケーリングがトリガーされます。 前のメカニズムと同じように、サービスがどの時点でスケーリングされるかを決定する 3 つの要素があります。
- "負荷のしきい値の下限" は、サービスがスケールインされるタイミングを決定します。 サービスのすべてのパーティションの平均負荷がこの値よりも小さい場合、サービスはスケールインされます。
- "負荷のしきい値の上限" は、サービスがスケールアウトされるタイミングを決定します。サービスのすべてのパーティションの平均負荷がこの値よりも大きい場合、サービスはスケールアウトされます。
- "スケーリング間隔" は、トリガーをチェックする頻度を決定します。 トリガーがチェックされ、スケーリングが必要な場合は、メカニズムが適用されます。 スケーリングが必要でない場合は、アクションは行われません。 どちらの場合も、トリガーは、スケーリング間隔が再度経過する前に再度チェックされます。
このトリガーは、ステートフル サービスとステートレス サービスの両方で使用できます。 このトリガーで使用できる唯一のメカニズムは、AddRemoveIncrementalNamedPartitionScalingMechanism です。 サービスがスケールアウトされるときは新しいパーティションが追加され、サービスがスケールインされるときは既存のパーティションのいずれかが削除されます。 サービスの作成または更新時にチェックされる制限があります。これらの条件が満たされない場合、サービスの作成または更新は失敗します。
- サービスでは名前付きパーティション スキームを使用する必要があります。
- パーティション名は連続した整数にする必要があります。例: "0"、"1"、...
- 最初のパーティション名は "0" にする必要があります。
たとえば、サービスの初回の作成が 3 つのパーティションで行われる場合、パーティション名として有効な名前は "0"、"1"、および "2" のみです。
実行される実際の自動スケーリング操作も、この名前スキームに従います。
- サービスの現在のパーティションの名前が "0"、"1"、および "2" のときにスケールアウトする場合は、"3" という名前のパーティションが追加されます。
- サービスの現在のパーティションの名前が "0"、"1"、および "2" のときにスケールインする場合は、"2" という名前のパーティションが削除されます。
インスタンスの追加または削除によるスケーリングを使用するメカニズムと同じように、このメカニズムの適用方法を決定する 3 つのパラメーターがあります。
- "スケールの増分" は、メカニズムがトリガーされたときに追加または削除されるパーティションの数を決定します。
- "最大パーティション数" は、スケーリングの上限を定義します。 サービスのパーティション数がこの制限に達すると、負荷に関係なくサービスはスケールアウトされなくなります。 この制限は、値 -1 を指定することで解除できます。その場合、サービスは可能な限りスケールアウトされます (上限はクラスターの実際の容量になります)。
- "最小パーティション数" は、スケーリングの下限を定義します。 サービスのパーティション数がこの制限に達すると、負荷に関係なくサービスはスケールインされなくなります。
警告
AddRemoveIncrementalNamedPartitionScalingMechanism がステートフル サービスで使用される場合、Service Fabric によって、通知や警告なしでパーティションの追加または削除が行われます。 スケーリング メカニズムがトリガーされている場合、データの再分割は実行されません。 スケールアウト操作では、新しいパーティションは空になり、スケールイン操作では、パーティションはその中に含まれるすべてのデータと共に削除されます。
パーティション ベースのスケーリングのための自動スケーリング ポリシーの設定
アプリケーション マニフェストの使用
<NamedPartition>
<Partition Name="0" />
</NamedPartition>
<ServiceScalingPolicies>
<ScalingPolicy>
<AverageServiceLoadScalingTrigger MetricName="servicefabric:/_MemoryInMB" LowerLoadThreshold="300" UpperLoadThreshold="500" ScaleIntervalInSeconds="600"/>
<AddRemoveIncrementalNamedPartitionScalingMechanism MinPartitionCount="1" MaxPartitionCount="3" ScaleIncrement="1"/>
</ScalingPolicy>
</ServiceScalingPolicies>
C# API の使用
FabricClient fabricClient = new FabricClient();
StatefulServiceUpdateDescription serviceUpdate = new StatefulServiceUpdateDescription();
AveragePartitionLoadScalingTrigger trigger = new AverageServiceLoadScalingTrigger();
PartitionInstanceCountScaleMechanism mechanism = new AddRemoveIncrementalNamedPartitionScalingMechanism();
mechanism.MaxPartitionCount = 4;
mechanism.MinPartitionCount = 1;
mechanism.ScaleIncrement = 1;
//expecting that the service already has metric NumberOfConnections
trigger.MetricName = "NumberOfConnections";
trigger.ScaleInterval = TimeSpan.FromMinutes(15);
trigger.LowerLoadThreshold = 10000;
trigger.UpperLoadThreshold = 20000;
ScalingPolicyDescription policy = new ScalingPolicyDescription(mechanism, trigger);
serviceUpdate.ScalingPolicies = new List<ScalingPolicyDescription>;
serviceUpdate.ScalingPolicies.Add(policy);
await fabricClient.ServiceManager.UpdateServiceAsync(new Uri("fabric:/AppName/ServiceName"), serviceUpdate);
PowerShell の使用
$mechanism = New-Object -TypeName System.Fabric.Description.AddRemoveIncrementalNamedPartitionScalingMechanism
$mechanism.MinPartitionCount = 1
$mechanism.MaxPartitionCount = 3
$mechanism.ScaleIncrement = 2
$trigger = New-Object -TypeName System.Fabric.Description.AverageServiceLoadScalingTrigger
$trigger.MetricName = "servicefabric:/_MemoryInMB"
$trigger.LowerLoadThreshold = 5000
$trigger.UpperLoadThreshold = 10000
$trigger.ScaleInterval = New-TimeSpan -Minutes 25
$scalingpolicy = New-Object -TypeName System.Fabric.Description.ScalingPolicyDescription
$scalingpolicy.ScalingMechanism = $mechanism
$scalingpolicy.ScalingTrigger = $trigger
$scalingpolicies = New-Object 'System.Collections.Generic.List[System.Fabric.Description.ScalingPolicyDescription]'
$scalingpolicies.Add($scalingpolicy)
#as we are using scaling on a resource this must be exclusive service
#also resource monitor service needs to be enabled
New-ServiceFabricService -ApplicationName $applicationName -ServiceName $serviceName -ServiceTypeName $serviceTypeName –Stateful -TargetReplicaSetSize 3 -MinReplicaSetSize 2 -HasPersistedState true -PartitionNames @("0","1") -ServicePackageActivationMode ExclusiveProcess -ScalingPolicies $scalingpolicies
リソースに基づく自動スケーリング
実際のリソースに基づいてスケーリングするためにリソース モニター サービスを有効にするには、次のように ResourceMonitorService
機能を追加します。
"fabricSettings": [
...
],
"addonFeatures": [
"ResourceMonitorService"
],
Service Fabric では、2 つの組み込みメトリック (CPU 用の servicefabric:/_CpuCores
とメモリ用の servicefabric:/_MemoryInMB
) を使用した、CPU とメモリのガバナンスがサポートされています。 リソース モニター サービスは、CPU とメモリの使用状況を追跡し、Cluster Resource Manager を現在のリソース使用状況で更新する役割を担います。 このサービスは、潜在的な短時間持続するスパイクに対応するために、加重移動平均を適用します。 リソースの監視は、Windows ではコンテナー化されたアプリケーションとコンテナー化されていないアプリケーションの両方でサポートされ、Linux ではコンテナー化されたアプリケーションでサポートされます。
Note
リソース モニター サービスで監視され、Cluster Resource Manager で更新される CPU とメモリの消費量は、自動スケーリング以外の意思決定プロセスには影響しません。 リソース ガバナンス が必要な場合は、自動スケーリング機能を妨げることなく構成できます (その逆も同様)。
重要
リソースベースの自動スケーリングは、専有プロセス モデルでアクティブ化されたサービスに対してのみサポートされます。
次のステップ
アプリケーションのスケーラビリティについて学習します。