Yandex Cloud
  • Сервисы
  • Решения
  • Почему Yandex Cloud
  • Сообщество
  • Тарифы
  • Документация
  • Связаться с нами
Подключиться
Language / Region
© 2022 ООО «Яндекс.Облако»
Yandex Data Proc
  • Практические руководства
    • Все практические руководства
    • Работа с заданиями
      • Обзор
      • Работа с заданиями Hive
      • Работа с заданиями MapReduce
      • Работа с заданиями PySpark
      • Работа с заданиями Spark
      • Запуск заданий Apache Hive
      • Запуск Spark-приложений
      • Запуск заданий с удаленного хоста
    • Настройка сети для Data Proc
    • Использование Yandex Object Storage в Data Proc
    • Обмен данными с Managed Service for ClickHouse
    • Импорт базы данных с использованием Sqoop
    • Использование скриптов инициализации для настройки GeeseFS в Data Proc
  • Пошаговые инструкции
    • Все инструкции
    • Информация об имеющихся кластерах
    • Создание кластера
    • Подключение к кластеру
    • Изменение кластера
    • Управление подкластерами
    • Изменение подкластера
    • Подключение к интерфейсам компонентов
    • Использование Sqoop
    • Управление заданиями
      • Все задания
      • Задания Spark
      • Задания PySpark
      • Задания Hive
      • Задания MapReduce
    • Удаление кластера
    • Работа с логами
    • Мониторинг состояния кластера и хостов
  • Концепции
    • Взаимосвязь ресурсов сервиса
    • Классы хостов
    • Среда исполнения
    • Интерфейсы и порты компонентов Data Proc
    • Задания в Data Proc
    • Автоматическое масштабирование
    • Декомиссия подкластеров и хостов
    • Сеть в Data Proc
    • Техническое обслуживание
    • Квоты и лимиты
    • Хранилище в Data Proc
    • Свойства компонентов
    • Логи в Data Proc
    • Скрипты инициализации
  • Управление доступом
  • Правила тарификации
  • Справочник API
    • Аутентификация в API
    • gRPC (англ.)
      • Overview
      • ClusterService
      • JobService
      • ResourcePresetService
      • SubclusterService
      • OperationService
    • REST (англ.)
      • Overview
      • Cluster
        • Overview
        • create
        • delete
        • get
        • list
        • listHosts
        • listOperations
        • listUILinks
        • start
        • stop
        • update
      • Job
        • Overview
        • cancel
        • create
        • get
        • list
        • listLog
      • ResourcePreset
        • Overview
        • get
        • list
      • Subcluster
        • Overview
        • create
        • delete
        • get
        • list
        • update
  • История изменений
    • Изменения сервиса
    • Образы
  • Вопросы и ответы
  1. Концепции
  2. Автоматическое масштабирование

Автоматическое масштабирование подкластеров

Статья создана
Yandex Cloud

    Примечание

    Автоматическое масштабирование подкластеров поддерживается в кластерах Yandex Data Proc версии 1.4 и выше.

    Yandex Data Proc поддерживает автоматическое масштабирование подкластеров обработки данных (Compute-кластеров) на основе метрик, которые поставляются в сервис Yandex Monitoring:

    • Если значение метрики превысит заданный порог, то в подкластер будут добавлены новые хосты. Они станут доступны в YARN-кластере с Apache Spark или Apache Hive, как только перейдут в статус Alive.
    • Если значение опорной метрики опустится ниже заданного порога, в подкластере последовательно будут запущены процессы декомиссии и удаления избыточных хостов.

    Подробнее о механизмах автоматического масштабирования читайте в документации Instance Groups.

    Вы можете выбрать способ масштабирования, который лучше подходит для ваших задач:

    • Масштабирование по умолчанию — масштабирование на основе метрики yarn.cluster.containersPending.

      Это внутренняя метрика YARN, которая показывает, сколько единиц аллокации ресурсов ожидают поставленные в очередь задания. Она подойдет, если в кластере есть много относительно небольших заданий, которые управляются Apache Hadoop® YARN. Такой способ масштабирования не требует дополнительной настройки.

    • Целевой уровень загрузки CPU — масштабирование на основе метрики загрузки vCPU. Подробнее о масштабировании на ее основе читайте в документации Instance Groups.

    Чтобы настроить автоматическое масштабирование кластера по иным метрикам и формулам — отправьте запрос в службу технической поддержки.

    Для автоматического масштабирования можно настроить следующие параметры:

    • Начальный (он же минимальный) размер группы.
    • Таймаут декомиссии. Задается в секундах. Максимальное значение — 86400 секунд (сутки). Значение по умолчанию — 120 секунд.
    • Тип виртуальных машин: стандартные или прерываемые.
    • Максимальный размер группы.
    • Промежуток времени, используемый при расчете средней нагрузки каждой виртуальной машины в группе.
    • Время на разогрев виртуальной машины. В течение указанного периода после запуска виртуальной машины вместо ее метрик будут использоваться средние значения в группе.
    • Период стабилизации, в минутах или секундах — период, в течение которого количество виртуальных машин в группе не может быть снижено.

    Была ли статья полезна?

    Language / Region
    © 2022 ООО «Яндекс.Облако»