检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
行正常的业务消费,触发条件是,当前消费组内的所有消费者都同步完成新的消费组元数据,包括之前已经同步过的消费者,也需要重新同步。 消费组简单流程如下: 有新的消费者加入或退出,服务端记录的消费组元数据更新,服务端更新消费组进入REBALANCING状态。 服务端等待所有消费者(包含已有的消费者)同步最新的元数据。
nfig.properties”文件,在文件中增加如下内容。 security.protocol=SASL_PLAINTEXT #SASL认证机制为“SCRAM-SHA-512”时,配置信息如下。 sasl.jaas.config=org.apache.kafka.common.security
首次开启SASL时,需要输入用户名的密码。 sasl_enabled_mechanisms 否 Array of strings 开启SASL后使用的认证机制。仅在第一次开启SASL时传入生效。生效后再次传入无效。 PLAIN:简单的用户名密码校验。 SCRAM-SHA-512:用户凭证校验,安全性比PLAIN机制更高。
设置存储Topic数据的OBS桶的名称。 选择:在下拉列表中选择已创建的OBS桶名称,或者单击“创建转储地址”,新创建一个OBS桶。 输入:输入已创建的OBS桶名称,或者单击“创建转储地址”,新创建一个OBS桶。输入的OBS桶必须和Kafka实例在同一个区域。 转储目录 OBS中存储Topi
Kafka实例是否支持不同的子网? 支持。 客户端与实例在相同VPC内,可以跨子网段访问。同一个VPC内的子网默认可以进行通信。 父主题: 连接问题
类型为Kafka且对端Kafka认证方式为“SASL_SSL”时需要填写) password 否 String 对端Kafka开启SASL_SSL时设置的密码,或者创建SASL_SSL用户时设置的密码。(仅源端类型为Kafka且对端Kafka认证方式为“SASL_SSL”时需要填写)
单代理存储空间:超高I/O,200GB 虚拟私有云:选择虚拟私有云 子网:选择子网 安全组:选择安全组 访问方式:保持默认 实例名称:kafka-test 企业项目:default 购买完成后,在实例详情页获取Kafka实例的内网明文连接地址。 在购买的Kafka实例中,创建如下参数的3个Topic,具体步骤请参考创建Kafka
user_name String 对端Kafka用户名。(仅源端类型为Kafka时会显示) sasl_mechanism String 对端Kafka认证机制。(仅源端类型为Kafka时会显示) instance_id String 对端Kafka实例ID。(仅源端类型为Kafka时会显示)
访问密钥AK。 secret_key 是 String 访问密钥SK。 obs_bucket_name 是 String 存储该通道数据的OBS桶名称。 obs_path 否 String 存储在obs的路径,默认可以不填。 取值范围:英文字母、数字、下划线、中划线和斜杠,最大长度为64个字符。
user_name String 对端Kafka用户名。(仅源端类型为Kafka时会显示) sasl_mechanism String 对端Kafka认证机制。(仅源端类型为Kafka时会显示) instance_id String 对端Kafka实例ID。(仅源端类型为Kafka时会显示)
告警级别 选择“重要”。 通知类型 选择“触发”,即触发告警时发送通知。 接收对象 选择“主题订阅”,单击“创建主题”,进入消息通知服务中,创建主题和添加订阅。创建完成后,返回“创建告警规则”页面,在“通知对象”后单击,然后选择创建的告警通知主题。 说明: 在添加订阅后,对应的订阅终
支持两种策略模式: produce_reject: 生产受限 time_base: 自动删除 enterprise_project_id 否 String 企业项目。 响应参数 无 请求示例 修改实例的名称和描述。 PUT https://{endpoint}/v2/{project_id}/in
Kafka数据迁移概述 Kafka迁移指将生产与消费消息的客户端切换成连接新Kafka,部分还涉及将持久化的消息文件迁移到新的Kafka。主要涉及到以下2类场景: 业务上云且不希望业务有中断。 在上云过程中,连续性要求高的业务,需要平滑迁移,不能有长时间的中断。 在云上变更业务部署。
[ ] } ], "support_features" : [ { "name" : "connector_obs", "properties" : { "max_task" : "10", "max_node"
描述 [数组元素] Array of KafkaDiagnosisCheckEntity objects Kafka消息积压诊断预检查返回对象 表4 KafkaDiagnosisCheckEntity 参数 参数类型 描述 name String 预检查项名称 reason String
可用区端口号。 resource_availability String 可用区上是否还有可用资源。 default_az Boolean 是否为默认可用区。 remain_time Long 剩余时间。 ipv6_enable Boolean 是否支持IPv6。 请求示例 GET htt
创建实例时为什么无法查看子网和安全组等信息? 创建实例时,如果无法查看虚拟私有云、子网、安全组、弹性IP,可能原因是该用户的用户组无Server Administrator和VPC Administrator权限。增加用户组权限的详细步骤,请参考修改用户组权限。 父主题: 实例问题
概述 Kafka实例完全兼容开源Kafka协议,可以直接使用kafka开源客户端连接。如果“kafka安全协议”设置为“SASL_SSL”,则在开源客户端基础上使用云服务提供的证书文件。 本指南主要介绍实例连接信息的收集,如获取实例连接地址、Topic名称等,然后提供Java、Python和Go等语言的连接示例。
快速入门 场景描述 您可以根据业务需要创建相应计算能力和存储空间的Kafka实例。 API调用方法请参考如何调用API。 前提条件 已获取IAM的Endpoint,具体请参见地区和终端节点。 已获取Kafka的Endpoint,具体请参见地区和终端节点。 创建Kafka实例 如下示例是创建Kafka实例的请求消息:
测试Kafka实例TPS 通过以下几个场景,测试不同实例规格的TPS。 测试场景一(实例是否开启SASL):相同的Topic,实例分为开启SASL和未开启SASL 测试场景二(同步/异步复制):相同的实例,不同复制机制的Topic 测试场景三(是否同步落盘):相同的实例,不同落盘机制的Topic