检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
新的名称。例如当前Kafka实例别名为A,对端Kafka实例的Topic名称为test,重命名后的Topic为A.test。 Kafka数据复制的Smart Connect任务创建成功后,当前Kafka实例会自动创建“mm2-offset-syncs.对端Kafka实例别名.in
图3描述了按需计费Kafka实例各个阶段的状态。购买后,在计费周期内Kafka实例正常运行,此阶段为有效期;当您的账号因按需Kafka实例自动扣费导致欠费后,账号将变成欠费状态,Kafka实例将陆续进入宽限期和保留期。 图3 按需计费Kafka实例生命周期 欠费预警 系统会在每个计费周期后的一段时间对按需计费资
使用DNAT访问Kafka实例 Topic管理 Topic,即消息主题。创建Kafka实例后,如果没有开启“kafka自动创建Topic”,需要手动创建Topic,然后才能进行生产消息和消费消息。 创建Topic后,您可以根据业务需要修改Topic的老化时间。 支持区域: 全部 创建Topic
首次开启SASL时,需要输入用户名的密码。 sasl_enabled_mechanisms 否 Array of strings 开启SASL后使用的认证机制。仅在第一次开启SASL时传入生效。生效后再次传入无效。 PLAIN:简单的用户名密码校验。 SCRAM-SHA-512:用户凭证校验,安全性比PLAIN机制更高。
Partition Assignment”。 修改成功后,返回如下图所示信息。 单击“Go to topic view”,进入Topic详情页面。 单击“Reassign Partitions”,保存对Topic分区Leader的修改。 保存成功后,返回如下图所示信息。 在导航栏单击Topi
进入支付页面,选择支付方式,确认付款,支付订单后即可完成续费。 统一包年/包月资源的到期日 如果您持有多台到期日不同的Kafka实例,可以将到期日统一设置到一个日期,便于日常管理和续费。 图5展示了用户将两个不同时间到期的资源,同时续费一个月,并设置“统一到期日”后的效果对比。 图5 统一到期日
111及以上版本,可至Oracle官方下载页面下载。 安装后注意配置JAVA的环境变量。 IntelliJ IDEA 获取并安装IntelliJ IDEA,可至IntelliJ IDEA官方网站下载。 操作步骤 下载Demo包。 下载后解压,有如下文件: 表1 Kafka Demo文件清单
eper可能引发误操作导致业务受损,当前仅Kafka内部使用,不对外提供服务。 版本 当前服务端版本为1.1.0、2.7、3.x。实例创建后,服务端版本不支持升级。 兼容0.10以上的客户端版本,推荐使用和服务端一致的版本。 登录Kafka节点所在机器 不能登录。 存储空间 集群
3:00首次尝试自动续费,如果扣款失败,每天凌晨3:00尝试一次,直至Kafka实例到期或者续费成功。 开通自动续费后,还可以手动续费该Kafka实例。手动续费后,自动续费仍然有效,在新的到期时间前的第7天开始扣款。 自动续费的到期前7日自动扣款属于系统默认配置,您也可以根据需要
cluster 否 高I/O kafka-15 3 kafka.16u32g.cluster 否 高I/O 购买完成后,在实例详情页获取Kafka实例的内网明文连接地址。 购买实例后,创建如表2所示Topic,创建步骤请参考创建Kafka Topic。 表2 Topic参数 名称 是否同步复制
不影响Kafka实例持续提供服务。 AZ内实例容灾 同一个AZ内,Kafka实例通过副本冗余方式实现实例容灾,当检测到leader副本故障后,快速完成副本选主,保障Kafka实例持续提供服务。 数据容灾 通过支持数据多副本方式实现数据容灾。 跨AZ容灾部署架构 DMS for K
String 是 Topic名称。 请求消息 请求参数 表2 参数说明 参数 类型 必选 说明 partition Integer 是 期望调整分区后的数量,必须大于当前分区数量,小于等于100。 请求示例 { "partition": 3 } 响应消息 响应参数 无 响应示例 无
过offset,系统将在十分钟后自动删除该消费组。 如果“auto.create.groups.enable”设置为“false”,系统不会自动删除消费组。如果需要删除消费组,需要您手动删除。 如果消费组从未提交过offset,当Kafka实例重启后,该消费组会被删除。 创建Kafka消费组
制,数据默认保留3天)。该场景适用于对数据不能丢的业务场景,但是会导致生产业务失败。 自动删除策略 该策略场景下磁盘使用到达容量阈值95%后,依旧可以正常生产和消费消息,但是会删除最早的10%的消息,以保证磁盘容量充足。该场景优先保障业务不中断,数据可能会丢失。 以上两种策略需要
String Topic名称。 请求参数 表2 请求Body参数 参数 是否必选 参数类型 描述 partition 否 Integer 期望调整分区后的数量,必须大于当前分区数量,小于等于 100。 响应参数 无 请求示例 增加Topic分区数。 POST https://{endpoin
Connect任务时,如果需要做Kafka实例迁移,可以同时向两个Kafka实例生产消息,源实例中的消息可继续消费,待源实例的消息数据全部被消费完或老化后,业务可迁移到新的Kafka实例。 父主题: 实例问题
再付费,按照Kafka实例实际使用时长计费。关于两种计费模式的详细介绍请参见分布式消息服务Kafka版计费模式概述。 在购买Kafka实例后,如果发现当前计费模式无法满足业务需求,您还可以变更计费模式。详细介绍请参见变更计费模式概述。 计费项 分布式消息服务Kafka版的计费项由
系统进入“服务配额”页面。 单击“申请扩大配额”。 在“新建工单”页面,根据您的需求,填写相关参数。 其中,“问题描述”项请填写需要调整的内容和申请原因。 填写完毕后,勾选协议并单击“提交”。
业务系统日常运行中可能出现一些小概率的异常事件。部分可靠性要求非常高的业务系统,除了要求实例高可用,还要求数据安全、可恢复,以便在实例发生异常后能够使用备份数据进行恢复,保障业务正常运行。 - 父主题: 安全
单击待关闭SSL双向认证的实例名称,进入实例详情页面。 在“连接信息 > SSL双向认证”后,单击,关闭SSL双向认证。 关闭SSL双向认证将重启实例,请谨慎操作。 关闭SSL双向认证后,需要在客户端的“consumer.properties”和“producer.proper