Auto Scaling

柔軟にスケーリングを設定

アプリケーションの多様なニーズを満たせるように、多数の手法で複数のリソースに対して自動スケーリングを設定します。

パフォーマンスを常に維持

正常でないインスタンスを自動的に検出して置換することで、アプリケーションのフォールトトレランスを改善します。

直感的なスケーリングから得られるメリット

リソースグループにおける変化を監視し、単一のインターフェイスでインスタンスのスケーリング、ポリシー、アクションを処理します。

従量制での支払い

ワークロードの変化に応じてリソースをスケーリングして、常に十分なリソースを確保しつつ、コストを可能な限り低く維持します。

Huawei Cloud Auto Scalingを選ぶ理由

コストを削減して、フォーカスを維持

コストを削減して、フォーカスを維持

  • Auto ScalingでELBと連携し、リソースグループ内のインスタンス間でワークロードのバランスを取ることが可能です。

  • 必要に応じてインスタンスを追加し、正常でないインスタンスを新しいものと置き換えることで、アプリケーションの高可用性を維持します。

  • ワークロードのあらゆる変化に安心して対処できるように、スケジュール設定されたスケーリングポリシー、周期的なスケーリングポリシー、アラームのスケーリングポリシーに対応します。

ユーザー体験を向上

ユーザー体験を向上

  • ライフサイクルフックによって、ご利用のアプリケーションでAuto Scalingグループ内のスケーリングイベントに自動で対応可能です。

  • 優れたスケールインにより、インスタンスが終了する前に実行中のタスクを完了できるようにしてサービスの中断を防ぎます。

  • Auto Scalingグループでインスタンスが起動または終了されるたびに、通知を送信します。

Auto Scalingのパワーを引き出して、あらゆる規模のワークロードに対応

ウェブアプリケーション
利用シーン

需要が急増している間、望ましいパフォーマンスを維持するためにウェブサイトで追加のリソースが必要になる場合があります。需要が落ち着き、こうした追加のリソースが不要になった際には、引き続き使用料金が発生しないようにオフロードすることができます。Auto Scalingでは、自動でスケールアップやスケールダウンを行うスケーラブルなアーキテクチャを利用して、最適なパフォーマンスを最小限のコストで維持できます。そのため、ビジネスであらゆるシナリオに備えることが可能です。

特長
高い柔軟性

手動でAuto Scalingグループのサイズを変更可能です。また、スケジュール設定されたスケーリングポリシーや周期的なスケーリングポリシー、アラームでトリガーされるスケーリングポリシーを設定して、自動でグループのスケーリングを実行できます。

向上したフォールトトレランス

インスタンスの健全性を自動でモニタリングして、正常でないインスタンスが検出されると、必要に応じて新しいインスタンスと置換します。

ロードバランシング

ロードバランサーをAuto Scalingグループにアタッチすると、どのインスタンスにも過剰な負荷がかからないようにトラフィックのルーティングを最適化して、着信リクエストを管理できます。

関連サービス
ハイパフォーマンスコンピューティング
利用シーン

予定された時刻にタスクを処理するために、コンピューティングインスタンスを自動作成し、タスク処理が完了時に速やかにコンピューティングインスタンスをリリースするバッチプロセスを作成することができます。このプロセス中に、経過時間に伴うワークロードのサイズに基づいて、コンピューティングインスタンスの数を自動で調整することも可能です。

特長
高い柔軟性

手動でAuto Scalingグループのサイズを変更可能です。また、スケジュール設定されたスケーリングポリシーや周期的なスケーリングポリシー、アラームでトリガーされるスケーリングポリシーを設定して、自動でグループのスケーリングを実行できます。

低コスト

必要なときだけインスタンスを追加し、すべての購入オプションにわたって拡張して、パフォーマンスとコストを最適化できます。支払いは従量制です。

多様な仕様

複数のインスタンスタイプにわたってコンピューティングタスクを導入し、パフォーマンスを強化できます。

関連サービス

今すぐクラウドを活用してスケーリング

今すぐ試す

その他のサービス

その他のサービス

We use cookies to improve our site and your experience. By continuing to browse our site you accept our cookie policy. Find out more