检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
分区leader副本的LSO(Log Start Offset)。 last_update_timestamp long 分区上次写入消息的时间。 replicas Array of object replicas 副本列表。参数查看表4。 表4 replicas参数说明 参数 类型
params String 任务参数。 status String 任务状态。 created_at String 启动时间。 updated_at String 结束时间。 请求示例 GET https://{endpoint}/v2/{project_id}/instances/{
message_offset Long 消息位置。 size Integer 消息大小,单位字节。 timestamp Long 生产消息的时间。 格式为Unix时间戳。单位为毫秒。 请求示例 GET https://{endpoint}/v2/{project_id}/instances/{
afka时需要填写,instance_id和bootstrap_servers仅需要填写其中一个) bootstrap_servers 否 String 对端Kafka实例地址。(仅源端类型为Kafka时需要填写,instance_id和bootstrap_servers仅需要填写其中一个)
是否为contoller节点。 version String 服务端版本。 register_time Long broker注册时间,为unix时间戳格式。 is_health Boolean Kafka实例节点的连通性是否正常。 请求示例 GET https://{endpo
finished:诊断完成 normal:诊断结果正常 abnormal:诊断结果异常 begin_time String 诊断任务开始时间 end_time String 诊断任务结束时间 group_name String 该次诊断任务诊断的消费组名称 topic_name String 该次诊断任务诊断的topic名称
查看队列基本信息 在“Topic管理”页面,查看每个Topic的基本信息,包括副本数、分区数和老化时间等。 Topic分区平衡 在“Topic管理”页面,修改分区平衡,支持手动平衡和自动平衡。 更新Topic配置 在“Topic管理”页面,修改Topic配置参数。 查看消费组列表
SmartConnect任务的id。 status String SmartConnect任务的状态。 create_time Long SmartConnect任务的创建时间。 表3 SmartConnectTaskRespSourceConfig 参数 参数类型 描述 redis_address String
消息到达源端的时间与到达目标端的时间之差。 单位:ms ≥ 0 Kafka实例的Smart Connect任务 1分钟 Kafka双向数据复制的Smart Connect任务在监控中会被拆分为2个任务,分别为“Smart Connect任务名_source_0”和“Smart C
分区leader副本的LSO(Log Start Offset)。 last_update_timestamp Long 分区上次写入消息的时间。 格式为Unix时间戳。 单位:毫秒。 replicas Array of replicas objects 副本列表。 表4 replicas 参数
副本数,配置数据的可靠性。 partition Integer topic分区数,设置消费的并发数。 retention_time Integer 消息老化时间。 sync_replication Boolean 是否开启同步复制,开启后,客户端生产消息时相应的也要设置acks=-1,否则不生效,默认关闭。
SmartConnect任务的id。 status String SmartConnect任务的状态。 create_time Long SmartConnect任务的创建时间。 表5 SmartConnectTaskRespSourceConfig 参数 参数类型 描述 redis_address String
API同时支持使用AK/SK认证,AK/SK认证是使用SDK对请求进行签名,签名过程会自动往请求中添加Authorization(签名认证信息)和X-Sdk-Date(请求发送的时间)请求头。 AK/SK认证的详细说明请参见认证鉴权的“AK/SK认证”。 对于管理员创建IAM用户接口,使用AK/SK方式认证时,添加消息头后的请求如下所示。
opic”和“topic映射”。 创建双向数据复制任务时,为了防止循环复制,控制台限定必须开启“重命名Topic”或者“添加来源header”。如果您在两个实例间,对同一个Topic分别创建拉取和推送的任务,即形成双向数据复制,且两个任务都未开启“重命名Topic”和“添加来源header”,此时会导致数据循环复制。
name String 消息引擎的名称,该字段显示为kafka。 version String 消息引擎的版本,当前支持1.1.0、2.3.0和2.7。 values Array 产品规格列表。具体参数,请参见表4。 表4 values参数说明 参数 类型 说明 detail Array
产品ID可以从查询产品规格列表获取。 maintain_begin 否 String 维护时间窗开始时间,格式为HH:mm。 maintain_end 否 String 维护时间窗结束时间,格式为HH:mm。 enable_publicip 否 Boolean 是否开启公网访问功能。默认不开启公网。
String 可用区上是否还有可用资源。 default_az Boolean 是否为默认可用区。 remain_time Long 剩余时间。 ipv6_enable Boolean 是否支持IPv6。 请求示例 GET https://{endpoint}/v2/available-zones
String 转储任务名称。 destination_type String 转储任务类型。 create_time Long 转储任务创建时间戳。 status String 转储任务状态。 topics String 返回任务转存的topics列表或者正则表达式。 请求示例 查询转储任务列表。
total Integer 所有的消费组总数。 表4 GroupInfoSimple 参数 参数类型 描述 createdAt Long 创建时间。 group_id String 消费组ID。 state String 消费组状态。包含以下状态: Dead:消费组内没有任何成员,且没有任何元数据。
producer_address String 生产者地址 broker_address String broker地址 join_time Long 加入时间 请求示例 查询Topic的当前生产者列表 GET https://{endpoint}/v2/{project_id}/kafka/in