Yandex.Cloud
  • Сервисы
  • Почему Yandex.Cloud
  • Сообщество
  • Решения
  • Тарифы
  • Документация
  • Связаться с нами
Подключиться
Yandex Managed Service for Apache Kafka®
  • Начало работы
  • Пошаговые инструкции
    • Все инструкции
    • Информация об имеющихся кластерах
    • Создание кластера
    • Подключение к кластеру
    • Остановка и запуск кластера
    • Изменение настроек кластера
    • Управление хостами Apache Kafka®
    • Работа с топиками и разделами
    • Управление учетными записями Kafka
    • Удаление кластера
  • Сценарии использования
    • Поставка данных в Managed Service for ClickHouse
  • Концепции
    • Взаимосвязь ресурсов сервиса
    • Топики и разделы
    • Брокеры
    • Производители и потребители
    • Классы хостов
    • Сеть в Managed Service for Apache Kafka®
    • Квоты и лимиты
    • Типы хранилища
  • Управление доступом
  • Правила тарификации
  • Справочник API
    • Аутентификация в API
    • gRPC
      • Обзор
      • ClusterService
      • OperationService
      • ResourcePresetService
      • TopicService
      • UserService
      • OperationService
    • REST
      • Обзор
      • Cluster
        • Обзор
        • create
        • delete
        • get
        • list
        • listHosts
        • listLogs
        • listOperations
        • move
        • start
        • stop
        • streamLogs
        • update
      • Operation
        • Обзор
        • get
      • ResourcePreset
        • Обзор
        • get
        • list
      • Topic
        • Обзор
        • create
        • delete
        • get
        • list
        • update
      • User
        • Обзор
        • create
        • delete
        • get
        • grantPermission
        • list
        • revokePermission
        • update
  • Вопросы и ответы
  1. Справочник API
  2. REST
  3. Cluster
  4. update

Метод update

  • HTTP-запрос
  • Path-параметры
  • Параметры в теле запроса
  • Ответ

Изменяет указанный кластер Apache Kafka®.

HTTP-запрос

PATCH https://mdb.api.cloud.yandex.net/managed-kafka/v1/clusters/{clusterId}

Path-параметры

Параметр Описание
clusterId Обязательное поле. Идентификатор кластера Apache Kafka®, который нужно изменить. Чтобы получить идентификатор кластера Apache Kafka®, выполните запрос list. Максимальная длина строки в символах — 50.

Параметры в теле запроса

{
  "updateMask": "string",
  "description": "string",
  "labels": "object",
  "configSpec": {
    "version": "string",
    "kafka": {
      "resources": {
        "resourcePresetId": "string",
        "diskSize": "string",
        "diskTypeId": "string"
      },

      // `configSpec.kafka` включает только одно из полей `kafkaConfig_2_1`, `kafkaConfig_2_6`
      "kafkaConfig_2_1": {
        "compressionType": "string",
        "logFlushIntervalMessages": "integer",
        "logFlushIntervalMs": "integer",
        "logFlushSchedulerIntervalMs": "integer",
        "logRetentionBytes": "integer",
        "logRetentionHours": "integer",
        "logRetentionMinutes": "integer",
        "logRetentionMs": "integer"
      },
      "kafkaConfig_2_6": {
        "compressionType": "string",
        "logFlushIntervalMessages": "integer",
        "logFlushIntervalMs": "integer",
        "logFlushSchedulerIntervalMs": "integer",
        "logRetentionBytes": "integer",
        "logRetentionHours": "integer",
        "logRetentionMinutes": "integer",
        "logRetentionMs": "integer"
      },
      // конец списка возможных полей`configSpec.kafka`

    },
    "zookeeper": {
      "resources": {
        "resourcePresetId": "string",
        "diskSize": "string",
        "diskTypeId": "string"
      }
    },
    "zoneId": [
      "string"
    ],
    "brokersCount": "integer",
    "assignPublicIp": true
  },
  "name": "string"
}
Поле Описание
updateMask string

Имена всех обновляемых полей, разделенные запятыми. Только значения указанных полей будут изменены. Остальные останутся нетронутыми. Если поле указано в параметре updateMask и в запросе не было отправлено значение для этого поля, значение поля будет сброшено на значение по умолчанию. Значение по умолчанию для большинства полей — null или 0.

Если в запросе не передается updateMask, значения всех полей будут обновлены. Для полей, указанных в запросе, будут использованы переданные значения. Значения остальных полей будут сброшены на значения по умолчанию.

description string

Новое описание кластера Apache Kafka®.

Максимальная длина строки в символах — 256.

labels object

Пользовательские метки для кластера Apache Kafka® в виде пар key:value.

Например, "project": "mvp" или "source": "dictionary".

Новый набор меток полностью заменит старый. Чтобы добавить метку, запросите текущий набор меток с помощью метода get, затем отправьте запрос update, добавив новую метку в этот набор.

Не более 64 на ресурс. Длина строки в символах для каждого ключа должна быть от 1 до 63. Каждый ключ должен соответствовать регулярному выражению [a-z][-_0-9a-z]*. Максимальная длина строки в символах для каждого значения — 63. Каждое значение должно соответствовать регулярному выражению [-_0-9a-z]*.

configSpec object

Новая конфигурация Kafka и хостов кластера Apache Kafka®.

Используйте параметр updateMask чтобы предотвратить сброс настроек кластера, не перечисленных в configSpec, на значения по умолчанию.

configSpec.
version
string

Версия Apache Kafka®, которая используется в кластере. Возможные значения: 2.1, 2.6.

configSpec.
kafka
object

Конфигурация и распределение ресурсов для брокеров Kafka.

configSpec.
kafka.
resources
object
Вычислительные ресурсы, выделенные брокерам Kafka.
configSpec.
kafka.
resources.
resourcePresetId
string

Идентификатор набора вычислительных ресурсов, доступных хосту (процессор, память и т. д.). Все доступные наборы ресурсов перечислены в документации.

configSpec.
kafka.
resources.
diskSize
string (int64)

Объем хранилища, доступного хосту, в байтах.

configSpec.
kafka.
resources.
diskTypeId
string

Тип хранилища для хоста.

configSpec.
kafka.
kafkaConfig_2_1
object
configSpec.kafka включает только одно из полей kafkaConfig_2_1, kafkaConfig_2_6

Конфигурация брокера Kafka версии 2.1.

configSpec.
kafka.
kafkaConfig_2_1.
compressionType
string

Тип сжатия для топиков кластера.

  • COMPRESSION_TYPE_UNCOMPRESSED: не использовать кодек (сообщения не сжимаются).
  • COMPRESSION_TYPE_ZSTD: кодек Zstandard.
  • COMPRESSION_TYPE_LZ4: Кодек LZ4.
  • COMPRESSION_TYPE_SNAPPY: Кодек Snappy.
  • COMPRESSION_TYPE_GZIP: кодек GZip.
  • COMPRESSION_TYPE_PRODUCER: кодек задается на стороне производителя (допустимые кодеки: ZSTD, LZ4, GZIP или SNAPPY).
configSpec.
kafka.
kafkaConfig_2_1.
logFlushIntervalMessages
integer (int64)

Количество сообщений, которые должны быть накоплены в разделе прежде, чем эти сообщения будут сброшены на диск.

Это глобальная настройка, которая задается на уровне кластера. Ее можно переопределить на уровне топика с помощью настройки flushMessages.

configSpec.
kafka.
kafkaConfig_2_1.
logFlushIntervalMs
integer (int64)

Максимальное время (в миллисекундах), в течение которого сообщение в любом топике хранится в памяти перед сбросом на диск. Если значение не задано, то используется значение настройки logFlushSchedulerIntervalMs.

Это глобальная настройка, которая задается на уровне кластера. Ее можно переопределить на уровне топика с помощью настройки flushMs.

configSpec.
kafka.
kafkaConfig_2_1.
logFlushSchedulerIntervalMs
integer (int64)

Частота проверки (в миллисекундах) наличия логов, которые нужно сбросить на диск. Эта проверка выполняется процессом, ответственным за сброс логов.

configSpec.
kafka.
kafkaConfig_2_1.
logRetentionBytes
integer (int64)

Ограничение размера раздела; Kafka отбросит старые сегменты лога, если , чтобы освободить место, если действует политика delete cleanupPolicy. Этот настройка полезна, если вам необходимо контролировать размер лога из-за ограниченного дискового пространства.

Это глобальная настройка, которая задается на уровне кластера. Ее можно переопределить на уровне топика с помощью настройки retentionBytes.

configSpec.
kafka.
kafkaConfig_2_1.
logRetentionHours
integer (int64)

Количество часов до удаления файла сегмента лога; в течение этого времени Kafka будет хранить файл сегмента лога.

configSpec.
kafka.
kafkaConfig_2_1.
logRetentionMinutes
integer (int64)

Количество минут до удаления файла сегмента лога; в течение этого времени Kafka будет хранить файл сегмента лога.

Если значение не задано, то используется значение настройки logRetentionHours.

configSpec.
kafka.
kafkaConfig_2_1.
logRetentionMs
integer (int64)

Количество миллисекунд до удаления файла сегмента лога; в течение этого времени Kafka будет хранить файл сегмента лога.

Если значение не задано, то используется значение настройки logRetentionMinutes.

Это глобальная настройка, которая задается на уровне кластера. Ее можно переопределить на уровне топика с помощью настройки retentionMs.

configSpec.
kafka.
kafkaConfig_2_6
object
configSpec.kafka включает только одно из полей kafkaConfig_2_1, kafkaConfig_2_6

Конфигурация брокера Kafka версии 2.6.

configSpec.
kafka.
kafkaConfig_2_6.
compressionType
string

Тип сжатия для топиков кластера.

  • COMPRESSION_TYPE_UNCOMPRESSED: не использовать кодек (сообщения не сжимаются).
  • COMPRESSION_TYPE_ZSTD: кодек Zstandard.
  • COMPRESSION_TYPE_LZ4: Кодек LZ4.
  • COMPRESSION_TYPE_SNAPPY: Кодек Snappy.
  • COMPRESSION_TYPE_GZIP: кодек GZip.
  • COMPRESSION_TYPE_PRODUCER: кодек задается на стороне производителя (допустимые кодеки: ZSTD, LZ4, GZIP или SNAPPY).
configSpec.
kafka.
kafkaConfig_2_6.
logFlushIntervalMessages
integer (int64)

Количество сообщений, которые должны быть накоплены в разделе прежде, чем эти сообщения будут сброшены на диск.

Это глобальная настройка, которая задается на уровне кластера. Ее можно переопределить на уровне топика с помощью настройки flushMessages.

configSpec.
kafka.
kafkaConfig_2_6.
logFlushIntervalMs
integer (int64)

Максимальное время (в миллисекундах), в течение которого сообщение в любом топике хранится в памяти перед сбросом на диск. Если значение не задано, то используется значение настройки logFlushSchedulerIntervalMs.

Это глобальная настройка, которая задается на уровне кластера. Ее можно переопределить на уровне топика с помощью настройки flushMs.

configSpec.
kafka.
kafkaConfig_2_6.
logFlushSchedulerIntervalMs
integer (int64)

Частота проверки (в миллисекундах) наличия логов, которые нужно сбросить на диск. Эта проверка выполняется процессом, ответственным за сброс логов.

configSpec.
kafka.
kafkaConfig_2_6.
logRetentionBytes
integer (int64)

Ограничение размера раздела; Kafka отбросит старые сегменты лога, чтобы освободить место, если действует политика delete cleanupPolicy. Эта настройка полезна, если вам необходимо контролировать размер лога из-за ограниченного дискового пространства.

Это глобальная настройка, которая задается на уровне кластера. Ее можно переопределить на уровне топика с помощью настройки retentionBytes.

configSpec.
kafka.
kafkaConfig_2_6.
logRetentionHours
integer (int64)

Количество часов до удаления файла сегмента лога; в течение этого времени Kafka будет хранить файл сегмента лога.

configSpec.
kafka.
kafkaConfig_2_6.
logRetentionMinutes
integer (int64)

Количество минут до удаления файла сегмента лога; в течение этого времени Kafka будет хранить файл сегмента лога.

Если значение не задано, то используется значение настройки logRetentionHours.

configSpec.
kafka.
kafkaConfig_2_6.
logRetentionMs
integer (int64)

Количество миллисекунд до удаления файла сегмента лога; в течение этого времени Kafka будет хранить файл сегмента лога.

Если значение не задано, то используется значение настройки logRetentionMinutes.

Это глобальная настройка, которая задается на уровне кластера. Ее можно переопределить на уровне топика с помощью настройки retentionMs.

configSpec.
zookeeper
object

Конфигурация и распределение ресурсов для хостов ZooKeeper.

configSpec.
zookeeper.
resources
object

Вычислительные ресурсы, выделенные хостам ZooKeeper.

configSpec.
zookeeper.
resources.
resourcePresetId
string

Идентификатор набора вычислительных ресурсов, доступных хосту (процессор, память и т. д.). Все доступные наборы ресурсов перечислены в документации.

configSpec.
zookeeper.
resources.
diskSize
string (int64)

Объем хранилища, доступного хосту, в байтах.

configSpec.
zookeeper.
resources.
diskTypeId
string

Тип хранилища для хоста.

configSpec.
zoneId[]
string

Идентификаторы зон доступности, в которых находятся брокеры Kafka.

configSpec.
brokersCount
integer (int64)

Количество брокеров Kafka, развернутых в каждой зоне доступности.

configSpec.
assignPublicIp
boolean (boolean)

Флаг, определяющий, назначен ли кластеру публичный IP-адрес. Если значение равно true, то кластер Apache Kafka® доступен в Интернете через его публичный IP-адрес.

name string

Новое имя кластера Apache Kafka®.

Максимальная длина строки в символах — 63. Значение должно соответствовать регулярному выражению [a-zA-Z0-9_-]*.

Ответ

HTTP Code: 200 - OK

{
  "id": "string",
  "description": "string",
  "createdAt": "string",
  "createdBy": "string",
  "modifiedAt": "string",
  "done": true,
  "metadata": "object",

  //  включает только одно из полей `error`, `response`
  "error": {
    "code": "integer",
    "message": "string",
    "details": [
      "object"
    ]
  },
  "response": "object",
  // конец списка возможных полей

}

Ресурс Operation. Дополнительные сведения см. в разделе
Объект Operation.

Поле Описание
id string

Идентификатор операции.

description string

Описание операции. Длина описания должна быть от 0 до 256 символов.

createdAt string (date-time)

Время создания ресурса в формате в RFC3339.

Строка в формате RFC3339.

createdBy string

Идентификатор пользователя или сервисного аккаунта, инициировавшего операцию.

modifiedAt string (date-time)

Время, когда ресурс Operation последний раз обновлялся. Значение в формате RFC3339.

Строка в формате RFC3339.

done boolean (boolean)

Если значение равно false — операция еще выполняется. Если true — операция завершена, и задано значение одного из полей error или response.

metadata object

Метаданные операции. Обычно в поле содержится идентификатор ресурса, над которым выполняется операция. Если метод возвращает ресурс Operation, в описании метода приведена структура соответствующего ему поля metadata.

error object
Описание ошибки в случае сбоя или отмены операции.
включает только одно из полей error, response

Описание ошибки в случае сбоя или отмены операции.

error.
code
integer (int32)

Код ошибки. Значение из списка google.rpc.Code.

error.
message
string

Текст ошибки.

error.
details[]
object

Список сообщений с подробными сведениями об ошибке.

response object
включает только одно из полей error, response

Результат операции в случае успешного завершения. Если исходный метод не возвращает никаких данных при успешном завершении, например метод Delete, поле содержит объект google.protobuf.Empty. Если исходный метод — это стандартный метод Create / Update, поле содержит целевой ресурс операции. Если метод возвращает ресурс Operation, в описании метода приведена структура соответствующего ему поля response.

В этой статье:
  • HTTP-запрос
  • Path-параметры
  • Параметры в теле запроса
  • Ответ
Language
Вакансии
Политика конфиденциальности
Условия использования
© 2021 ООО «Яндекс.Облако»