检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
详细介绍请参见通过成本标签维度查看成本分配。 使用成本单元进行成本分配 企业可以使用成本中心的“成本单元”来拆分公共成本。公共成本是指多个部门共享的计算、网络、存储或资源包产生的云成本,或无法直接通过企业项目、成本标签分配的云成本。这些成本不能直接归属于单一所有者,因此不能直接归属到某一类别。使
已设置了一个定时分区平衡任务,在此任务未执行前,无法对本实例内的任何Topic执行其他分区平衡任务。 操作影响 对数据量大的Topic进行分区平衡会占用大量的网络和存储带宽,业务可能会出现请求超时或者时延增大,建议在业务低峰期时操作。对Topic进行分区平衡前,根据Kafka实例规格对比当前实例负载
group_message_offsets 参数 参数类型 描述 partition Integer 分区编号。 lag Long 剩余可消费消息数,即消息堆积数。 topic String topic名称。 message_current_offset Long 当前消费进度。 message_log_end_offset
配置Kafka流控 Kafka支持对用户/客户端/Topic配置流量控制,控制生产/消费消息的上限速率。 用户/客户端的流控作用范围是整个Broker,Topic的流控作用范围是指定Topic。 约束与限制 2022年11月10日及以后创建的实例支持此功能。 单机实例不支持配置流控。
查询诊断报告详情 其他接口 包括: 查询维护时间窗时间段 查询可用区信息 查询产品规格列表 查询实例在CES的监控层级关系 查询Kafka产品规格核数
subnet_id String 是 子网信息。 获取方法如下: 方法1:登录虚拟私有云服务的控制台界面,单击VPC下的子网,进入子网详情页面,查找网络ID。 方法2:通过虚拟私有云服务的API接口查询,具体操作可参考查询子网列表。 available_zones Array 是 创建节点
Connector任务详情。 total_number Integer Smart Connector任务数。 max_tasks Integer Smart Connector最大任务数。 quota_tasks Integer Smart Connector任务配额。 表4 SmartConnectTaskEntity
创建方式:支持选择是否开启Kafka自动创建Topic的开关。选择开启后,表示向一个未创建的Topic生产或消费消息时,系统会自动创建此Topic。 其他建议 连接数限制:3000 消息大小:不能超过10MB 使用SASL_SSL协议访问Kafka:确保DNS具有反向解析能力,或者在hosts文件配置Ka
创建Topic后,您可以根据业务需要修改Topic的老化时间。 支持区域: 全部 创建Topic 修改Topic老化时间 修改Topic分区数 变更实例规格 Kafka实例创建成功后,您可以根据业务需要,扩容基准带宽、代理个数、存储空间、代理规格,或者缩容代理规格。 扩容存储空间有次数限制,只能扩容20次。
topic must be within the range of 1-200. Kafka实例创建Topic的分区数必须在1-200范围内。 请检查topic分区数 400 DMS.00400103 The number of replicas created for a Kafka
Boolean 是否使用同步落盘。默认值为false。同步落盘会导致性能降低。 partition 否 Integer topic分区数,设置消费的并发数。取值范围:1-200。 sync_replication 否 Boolean 是否开启同步复制,开启后,客户端生产消息时相应的也
消息从生产到消费时延高达6分钟 问题现象 消息从生产到消费的端到端时延偶现到达6分钟,业务对消息时延较为敏感。 分析过程 怀疑是业务堆积,处理慢导致时延。 通过查看监控数据,发现业务请求并不是很多,堆积最多时也只有50条消息,同时每秒新增消息只有10条左右,应该还没有到达处理极限。
对端实例的代理数。如果对端实例中设置了“default.replication.factor”,此参数的优先级高于“default.replication.factor”。(仅源端类型为Kafka时需要填写) task_num 否 Integer 数据复制的任务数。默认值为2,建
last_transfer_offset String 已转储的消息偏移量。 log_end_offset String 消息偏移量。 lag String 积压的消息数。 请求示例 查询指定的转储任务详情。 GET https://{endpoint}/v2/{project_id}/connectors/
group_message_offsets 参数 参数类型 描述 partition Integer 分区编号。 lag Long 剩余可消费消息数,即消息堆积数。 topic String topic名称。 message_current_offset Long 当前消费进度。 message_log_end_offset
replication_factor Integer 副本数。(仅源端类型为Kafka时会显示) task_num Integer 任务数。(仅源端类型为Kafka时会显示) rename_topic_enabled Boolean 是否重命名Topic。(仅源端类型为Kafka时会显示)
Logstash对接Kafka生产消费消息 方案概述 应用场景 Logstash是免费且开放的服务器端数据处理管道,能够从多个来源采集数据,转换数据,然后将数据发送到指定的存储中。Kafka是一种高吞吐量的分布式发布订阅消息系统,也是Logstash支持的众多输入输出源之一。本章
Go 本文以Linux CentOS环境为例,介绍Go 1.16.5版本的Kafka客户端连接指导,包括demo代码库的获取,以及生产、消费消息。 使用前请参考收集连接信息收集Kafka所需的连接信息。 准备环境 执行以下命令,检查是否已安装Go。 go version 返回如下回显时,说明Go已经安装。
subnet_id 是 String 子网信息。 获取方法如下:登录虚拟私有云服务的控制台界面,单击VPC下的子网,进入子网详情页面,查找网络ID。 available_zones 是 Array of strings 创建节点到指定且有资源的可用区ID。请参考查询可用区信息获取可用区ID。