检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
子网名称。 subnet_cidr String 子网网段。 user_id String 用户ID。 user_name String 用户名。 access_user String 实例访问用户名。 order_id String 订单ID,只有在包周期计费时才会有order_id
参数类型 描述 id String 任务ID。 name String 任务名称。 user_name String 用户名。 user_id String 用户ID。 params String 任务参数。 status String 任务状态。 created_at String
排查思路:如果是Java语言客户端,建议排查GC日志是否存在长时间FullGC的情况。该场景可能会导致心跳线程阻塞,服务端检查心跳失败,进入Rebalance状态。 解决方法:如果存在长时间FullGC的情况,需要您排查客户端相关问题(FullGC可能是客户端存在内存泄露)。 场景二:消费者消费时间间隔过长
参数类型 描述 id String 任务ID。 name String 任务名称。 user_name String 用户名。 user_id String 用户ID。 params String 任务参数。 status String 任务状态。 created_at String
创建VPC对等连接,将两个VPC的网络打通,实现跨VPC访问。具体步骤请参考VPC对等连接说明。 利用VPC终端节点在不同VPC间建立跨VPC的连接通道,实现Kafka客户端通过内网访问Kafka实例。具体步骤请参考使用VPCEP实现跨VPC访问Kafka。 父主题: 连接问题
批量重启、删除实例 当前页面API为历史版本API,未来可能停止维护。请使用批量重启或删除实例。 功能介绍 批量重启或删除实例。 在实例重启过程中,客户端的生产与消费消息等请求会被拒绝。 实例删除后,实例中原有的数据将被删除,且没有备份,请谨慎操作。 URI POST /v1.0/{pro
String 转储文件的记录分隔符,用于分隔写入转储文件的用户数据。 取值范围: 逗号“,” 分号“;” 竖线“|” 换行符“\n” NULL 默认值:换行符“\n”。 deliver_time_interval Integer 根据用户配置的时间,周期性的将数据导入OBS,若某个时间段内无数据,则此时间段不会生成打包文件。
“消费组可消费消息数”表示此消费组中所有Topic的堆积消息数之和。查看监控数据的具体步骤,请参考查看Kafka监控数据。 在Kafka客户端的“/bin”目录下,通过kafka-consumer-groups.sh --bootstrap-server ${connection-address}
access_user String 否 当ssl_enable为true时,该参数必选, ssl_enable为false时,该参数无效。 认证用户名,只能由英文字母、数字、中划线、下划线组成,长度为4~64的字符。 password String 否 当ssl_enable为true时,该参数必选,
String 转储文件的记录分隔符,用于分隔写入转储文件的用户数据。 取值范围: 逗号“,” 分号“;” 竖线“|” 换行符“\n” NULL 默认值:换行符“\n”。 deliver_time_interval 是 Integer 根据用户配置的时间,周期性的将数据导入OBS,若某个时间
对端Kafka开启SASL_SSL时设置的用户名,或者创建SASL_SSL用户时设置的用户名。(仅源端类型为Kafka且对端Kafka认证方式为“SASL_SSL”时需要填写) password 否 String 对端Kafka开启SASL_SSL时设置的密码,或者创建SASL_SSL用户时设置的密码。(
Integer 消息结束位点 consumer_id String 消费者Id host String host名称 client_id String 客户端Id 请求示例 查询消费组消息位点 GET https://{endpoint}/v2/{engine}/{project_id}/in
Kafka实例支持对存储进行扩容,根据业务增长,随时扩容,节约成本。 Kafka实例Topic数量计算 Kafka实例对Topic分区数之和设置了上限,当达到上限之后,用户无法继续创建Topic。 所以,Topic数量和实例分区数上限、每个Topic的分区数有关,其中,每个Topic分区数可在创建Topic时设置,如图1,实例分区数上限参考表1。
请求Body参数 参数 是否必选 参数类型 描述 advertised_ip_contents 是 Map<String,String> 用户自定义的advertised_ip_contents键值对。 键是listeners IP。 值是advertised.listeners
若该字段值为空,默认开启PLAIN认证机制。 选择其一进行SASL认证即可,支持同时开启两种认证机制。 取值如下: PLAIN: 简单的用户名密码校验。 SCRAM-SHA-512: 用户凭证校验,安全性比PLAIN机制更高。 retention_policy 否 String 磁盘的容量到达容量阈值后,对于消息的处理策略。
cluster_name String 对端Kafka实例别名。(仅源端类型为Kafka时会显示) user_name String 对端Kafka用户名。(仅源端类型为Kafka时会显示) sasl_mechanism String 对端Kafka认证机制。(仅源端类型为Kafka时会显示)
cluster_name String 对端Kafka实例别名。(仅源端类型为Kafka时会显示) user_name String 对端Kafka用户名。(仅源端类型为Kafka时会显示) sasl_mechanism String 对端Kafka认证机制。(仅源端类型为Kafka时会显示)
topic分区数,设置消费的并发数。取值范围:1-200。 sync_replication 否 Boolean 是否开启同步复制,开启后,客户端生产消息时相应的也要设置acks=-1,否则不生效,默认关闭。 retention_time 否 Integer 消息老化时间。默认值为72。取值范围1-720,单位小时。