检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
图1 订阅关系 分区信息:包含分区编号、最小偏移量、最大偏移量、消息数和消息更新时间。 图2 分区信息 生产者信息:包含Broker地址、生产者地址和加入时间。 仅当生产者正在往Topic中生产消息时,才显示生产者信息。 2023年7月10日以及之前创建的Topic,在Topic详情页面不显示“生产者”页签。
获取SK的方法,具体请参见新增访问密钥。 转储地址 设置存储Topic数据的OBS桶的名称。 选择:在下拉列表中选择已创建的OBS桶名称,或者单击“创建转储地址”,新创建一个OBS桶。 输入:输入已创建的OBS桶名称,或者单击“创建转储地址”,新创建一个OBS桶。输入的OBS桶必须和Kafka实例在同一个区域。
vpc:ports:get vpc:subnets:get vpc:vpcs:list vpc:publicIps:get vpc:publicIps:list vpc:ports:update vpc:publicIps:update vpc:ports:delete dms:instance:getBackgroundTask
descriptionUpdateInstanceReq:= "kafka description" nameUpdateInstanceReq:= "kafka001" request.Body = &model.UpdateInstanceReq{ Description:
nces/{instance_id} { "name": "dms002", "description": "instance description" } 示例2 PUT https://{dms_endpoint}/v1.0/{project_id
常用的压缩算法包括:ZIP,GZIP,SNAPPY,LZ4等。选择压缩算法时,需考虑数据的压缩率和压缩耗时。通常压缩率越高的算法,压缩耗时也越高。对于性能要求高的系统,可以选择压缩速度快的算法,比如LZ4;对于需要更高压缩比的系统,可以选择压缩率高的算法,比如GZIP。 可以在生产者端配置“compression
实例管理 重置密码 重置Manager密码 重启Manager 开启或关闭实例自动创建topic功能 修改实例跨VPC访问的内网IP 查询Kafka集群元数据信息 查询Kafka实例的协调器信息 修改Kafka实例Topic分区的副本 修改Kafka的接入方式 查询topic的磁盘存储情况
"**********", "email": "email", "description": "IAM User Description" } } 到这里为止这个请求需要的内容就具备齐全了,您可以使用curl、Postman或直接编写代码等方式发送请求调用API。
高I/O kafka-15 3 kafka.16u32g.cluster 否 高I/O 购买完成后,在实例详情页获取Kafka实例的内网明文连接地址。 购买实例后,创建如表2所示Topic,创建步骤请参考创建Kafka Topic。 表2 Topic参数 名称 是否同步复制 是否同步落盘
Kafka Manager”后,单击,关闭Kafka Manager。 关闭Kafka Manager后,控制台不显示Kafka Manager连接地址,不支持重置Kafka Manager密码和重启Kafka Manager功能。 父主题: 管理Kafka Manager
可用区上是否还有可用资源。 default_az Boolean 是否为默认可用区。 remain_time Long 剩余时间。 ipv6_enable Boolean 是否支持IPv6。 请求示例 GET https://{endpoint}/v2/available-zones 响应示例 状态码:
Topic未设置老化时间时,此参数才对此Topic生效。 1 ~ 168 单位:小时 72 max.connections.per.ip 每个IP允许的最大连接数。超过此连接数的连接请求将被丢弃。 100 ~ 20000 1000 group.max.session.timeout
"bindInstancePublicIp", "user_name" : "paas_dms", "user_id" : "3df5acbc24a54fadb62a043c9000a307", "params" : "{\"public_ip_id\":\"1aea7
页面。 单击Kafka实例的名称,进入实例详情页面。 在“连接信息 > SSL证书”后,单击“下载”,将SSL证书下载到本地。 解压证书zip包,获取JKS格式的SSL证书。 登录Linux系统的服务器,将JKS格式的SSL证书上传到服务器中。 执行以下命令,将JKS格式证书转换为PKCS12格式。
great security risks. It is recommended that the AK and SK be stored in ciphertext in configuration files or environment variables and decrypted
assignment_strategy String 分区分配策略。 表4 members 参数 参数类型 描述 host String 消费组consumer地址。 member_id String 消费组consumer的ID。 client_id String 客户端ID。 表5 group_message_offsets
--bootstrap-server ${connection-address} --list 参数说明如下:connection-address表示Kafka实例的连接地址,在Kafka控制台的“基本信息 > 连接信息”中获取。 示例如下: [root@ecs-kafka bin]# ./kafka-consumer-groups
${topic-name} 参数说明如下: connection-address:在Kafka控制台的“基本信息 > 连接信息”中,获取Kafka实例的连接地址。 topic-name:Topic名称。 示例如下: [root@ecs-kafka bin]# ./kafka-topics.sh --bootstrap-server
obs_destination_descriptor obs_destination_descriptor object 转存目标的描述。 topics_info Array of topics_info objects topic信息。 表4 obs_destination_descriptor 参数 参数类型
通过查看监控数据,发现业务请求并不是很多,堆积最多时也只有50条消息,同时每秒新增消息只有10条左右,应该还没有到达处理极限。 排查EIP流量情况,发现入流量存在下降的场景。 联系EIP服务技术人员协助排查,未发现问题。 从业务日志中分析消费组行为。 通过查看服务端日志,消费组存在大量rebalan