检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
dth为100MB的记录对应的product_id,该product_id的值即是创建上述kafka实例时需要配置的产品ID。 同时,unavailable_zones字段表示资源不足的可用区列表,如果为空,则表示所有可用区都有资源,如果不为空,则表示字段值的可用区没有资源。所以
Kafka实例版本可以升级吗? Kafka实例创建成功后,实例版本不支持升级。您可以重新创建Kafka实例,实现升级Kafka实例的版本。 父主题: 实例问题
是否为contoller节点。 version Boolean 服务端版本。 register_time Long broker注册时间,为unix时间戳格式。 is_health Boolean Kafka实例节点的连通性是否正常。 响应示例 { "cluster": {
说明 partition Integer 是 期望调整分区后的数量,必须大于当前分区数量,小于等于100。 请求示例 { "partition": 3 } 响应消息 响应参数 无 响应示例 无 状态码 操作成功的状态码。 表3 状态码 状态码 描述 204 新增分区操作成功。
1年3月20日后创建的实例,支持的加密套件为TLS_ECDHE_RSA_WITH_AES_128_GCM_SHA256。 2020年7月以及之后购买的实例,Kafka实例的每个代理允许客户端单IP连接的个数默认为1000个,在此之前购买的实例,Kafka实例的每个代理允许客户端单
Integer 副本数,配置数据的可靠性 partition Integer Topic分区数,设置消费的并发数。 retention_time Integer 消息老化时间。 sync_replication Boolean 是否开启同步复制,开启后,客户端生产消息时相应的也要设置acks=-1,否则不生效。
必选 说明 action String 是 对实例的操作:restart、delete instances Array 否 实例的ID列表。 allFailure String 否 参数值为kafka,表示删除租户所有创建失败的Kafka实例。 请求示例 批量重启实例 POST
topic分区数,设置消费的并发数。 默认值为3,取值范围为1~100。 replication Integer 否 副本数,配置数据的可靠性 默认值为3,取值范围为1~3。 sync_replication Boolean 否 是否开启同步复制,开启后,客户端生产消息时相应的也要设置acks=-1,否则不生效。
需要关闭connector的实例id,和请求路径上的一致。 url 否 String 提交关闭connector订单后前端跳转的页面 响应参数 状态码: 200 表3 响应Body参数 参数 参数类型 描述 order_id String 返回cbc生成的订单id。 请求示例 POST
检查Consumer和Producer的配置 查看日志,检查Consumer和Producer初始化时打印的参数是否符合预期,是否和自己在配置文件中设置的一致。 如果不一致,请检查配置文件的写法。 Java客户端常见报错 未关闭域名校验 出现下图的错误信息: 解决方案:检查consumer.properties和producer
String 订阅该topic的消费组名称列表。 表3 partitions参数说明 参数 类型 说明 partition Integer 分区ID。 leader Integer leader副本所在节点的id。 leo long 分区leader副本的LEO(Log End Offset)。
Kafka实例批量删除Topic 当前页面API为历史版本API,未来可能停止维护。请使用Kafka实例批量删除Topic。 功能介绍 该接口用于向Kafka实例批量删除Topic。 URI POST /v1.0/{project_id}/instances/{instance_id}/topics/delete
得Kafka实例的操作权限。具体操作请参考创建用户并授权使用DMS for Kafka。 创建VPC和子网。 在创建Kafka实例前,确保已存在可用的VPC和子网。创建VPC和子网的具体步骤,请参考创建虚拟私有云和子网。 创建的VPC与Kafka实例必须在相同的区域。 创建安全组并添加安全组规则。
设置SASL认证机制、账号和密码。 ## spring.kafka.properties.sasl.mechanism为SASL认证机制,username和password为SASL的用户名和密码,参考“收集连接信息”章节获取。为了确保用户名和密码的安全性,建议对用户名和密码进行加密处理,使用时解密。
message_offset Long 二者必选其一 重置的消费进度到指定偏移量,如果传入offset小于当前最小的offset,则重置到最小的offset,如果大于最大的offset,则重置到最大的offset。 timestamp Long 重置的消费进度到指定时间,格式为unix时间戳。如
fmt.Println(err) } } 更多编程语言的SDK代码示例,请参见API Explorer的代码示例页签,可生成自动对应的SDK代码示例。 状态码 状态码 描述 204 删除指定的实例成功。 错误码 请参见错误码。 父主题: 生命周期管理
String 需要开启或者关闭的接入方式。 enable 否 Boolean true:开启指定的接入方式。 false:关闭指定的接入方式。 user_name 否 String 首次开启SASL时,需要输入用户名。实例创建后,关闭SASL并不会删除已经创建的用户,再次开启SASL时无需传入用户名,传入的用户名将无效。
2:Kafka实例的基准带宽为300MByte/秒。 dms.instance.kafka.cluster.c3.middle.2:Kafka实例的基准带宽为600MByte/秒。 dms.instance.kafka.cluster.c3.high.2:Kafka实例的基准带宽为1200MByte/秒。
mechanism=PLAIN 参数说明如下:username和password为首次开启密文接入时填入的用户名和密码,或者创建用户时设置的用户名和密码。 SASL_SSL:如果已经设置了用户名和密码,以及SSL证书配置,请跳过此步骤,执行2。否则在Kafka客户端的“/config”目录中创建“ssl-user-config
修改转储任务的配额 功能介绍 修改转储任务的配额。 2022年9月前创建的实例支持调用此接口新增转储任务配额,2022年9月及以后创建的实例,转储任务配额默认为最大值,由于转储任务配额不支持减少,调用此接口修改转储任务配额会报错。 调用方法 请参见如何调用API。 URI PUT