检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
String 实例名称。 由英文字符开头,只能由英文字母、数字、中划线、下划线组成,长度为4~64的字符。 description 否 String 实例的描述信息。 长度不超过1024的字符串。 说明: \与"在json报文中属于特殊字符,如果参数值中需要显示\或者"字符,请在字符前增加转义字符\,比如\或者"。
创建实例时可以手动指定实例节点的内网IP地址,仅支持指定IPv4地址。 指定内网IP地址数量必须小于等于创建的节点数量。 如果指定的内网IP地址数量小于创建的节点数量时,系统会自动为剩余的节点随机分配内网IP地址。 publicip_id 否 String 实例绑定的弹性IP地址的ID。 以英文逗号隔开多个弹性IP地址的ID。
容灾,当检测到leader副本故障后,快速完成副本选主,保障Kafka实例持续提供服务。 数据容灾 通过支持数据多副本方式实现数据容灾。 跨AZ容灾部署架构 DMS for Kafka部署在3个及以上可用区时,可实现跨AZ容灾。 图1 跨AZ部署架构图 父主题: 安全
配置Kafka ACL用户 Kafka实例开启密文接入后,支持对Topic进行ACL(Access Control List)权限管理,您可以在Topic中为不同的用户设置不同的生产消费消息的权限,以达到用户之间的权限隔离。 本章节主要介绍Kafka实例开启密文接入后,如何创建用
String 需要开启或者关闭的接入方式。 enable 否 Boolean true:开启指定的接入方式。 false:关闭指定的接入方式。 user_name 否 String 首次开启SASL时,需要输入用户名。实例创建后,关闭SASL并不会删除已经创建的用户,再次开启SASL时无需传入用户名,传入的用户名将无效。
准备Kafka配置信息 为了方便,下文分生产与消费两个配置文件介绍。其中涉及SASL认证配置,如果Kafka实例没有开启密文接入,使用的是不加密连接,请注释相关代码;如果Kafka实例开启了密文接入,则必须使用加密方式连接,请设置相关参数。 生产消息配置文件(对应生产消息代码中的dms.sdk
单击待重置消费进度的消费组名称,进入消费组详情页。 在“消费进度”页签,通过以下方法,重置消费进度。 重置单个Topic所有分区的消费进度:在待重置消费进度的Topic后,单击“重置消费进度”。 重置单个Topic中单个分区的消费进度:在待重置消费进度的Topic分区后,单击“重置消费进度”。
P。 购买完成后,返回开启公网页面。 单击“弹性IP地址”后的,然后在下拉框中选择和代理数量相同的弹性IP地址,单击。 您可以在实例的“后台任务管理”页面,查看当前任务的操作进度。任务状态为“成功”,表示操作成功。 图1 开启公网访问 开启公网访问后,需要设置对应的安全组规则,才
表跨VPC访问的安全协议。内网访问公网访问的安全协议请参考port_protocols参数。 PLAINTEXT: 既未采用SSL证书进行加密传输,也不支持账号密码认证。性能更好,安全性较低,建议在生产环境下公网访问不使用此方式。 SASL_SSL: 采用SSL证书进行加密传输,支持账号密码认证,安全性更高。
a提供的消息队列服务,向用户提供计算、存储和带宽资源独占式的Kafka专享实例。使用分布式消息服务Kafka版,资源按需申请,按需配置Topic的分区与副本数量,即买即用,您将有更多精力专注于业务快速开发,不用考虑部署和运维。 本文档提供了分布式消息服务Kafka版API的描述、语法、参数说明及样例等内容。
对于管理员创建IAM用户接口,您可以从接口的请求部分看到所需的请求参数及参数说明,将消息体加入后的请求如下所示,其中加粗的字段需要根据实际值填写。 accountid为IAM用户所属的账号ID。 username为要创建的IAM用户名。 email为IAM用户的邮箱。 **********为IAM用户的登录密码。
表跨VPC访问的安全协议。内网访问公网访问的安全协议请参考port_protocols参数。 PLAINTEXT: 既未采用SSL证书进行加密传输,也不支持账号密码认证。性能更好,安全性较低,建议在生产环境下公网访问不使用此方式。 SASL_SSL: 采用SSL证书进行加密传输,支持账号密码认证,安全性更高。
fka客户端连接开启SASL_SSL的Kafka实例,与连接未开启SASL_SSL的Kafka实例的端口号不同,且开启SASL_SSL的Kafka实例需要配置证书信息。 支持区域: 全部 连接未开启SASL的Kafka实例 连接已开启SASL的Kafka实例 跨VPC访问Kafka实例
为什么限制Topic的总分区数? Kafka以分区为粒度管理消息,分区多导致生产、存储、消费都碎片化,影响性能稳定性。在使用过程中,当Topic的总分区数达到上限后,用户就无法继续创建Topic。 不同规格配置的Topic总分区数不同,如下表所示。 表1 Kafka集群实例规格 规格名称
} else { fmt.Println(err) } } 更多编程语言的SDK代码示例,请参见API Explorer的代码示例页签,可生成自动对应的SDK代码示例。 状态码 状态码 描述 200 查询成功。 400 参数无效。 403 鉴权失败。 错误码
操作场景 在调用接口的时候,部分URL中需要填入项目ID,所以需要获取到项目ID。有如下两种获取方式: 调用API获取项目ID 从控制台获取项目ID 调用API获取项目ID 项目ID可以通过调用查询指定条件下的项目信息API获取。 获取项目ID的接口为“GET https://{End
2:Kafka实例的基准带宽为300MByte/秒。 dms.instance.kafka.cluster.c3.middle.2:Kafka实例的基准带宽为600MByte/秒。 dms.instance.kafka.cluster.c3.high.2:Kafka实例的基准带宽为1200MByte/秒。
开源Kafka 简单易用 立等可用 即开即用,可视化操作,自助创建,自动化部署,分钟级创建实例,立即使用,实时查看和管理消息实例。 自行准备服务器资源,安装配置必要的软件并进行配置,等待时间长。 易出错。 简单API 提供简单的实例管理RESTful API,使用门槛低。 无 成本低廉 按需使用
云监控无法展示Kafka监控数据 Topic监控数据无法展示,可能原因如下: Topic名称开头包含特殊字符,例如#号“#”。 Kafka实例中没有创建Topic。 解决方法如下: 删除带特殊字符的Topic。 创建Topic。 消费组监控数据无法展示,可能原因如下: 消费组名称开头包含特殊字符,例如#号“#”。
为什么Console页面上,消息查询查不到消息? 可能原因1:消息已被老化。 解决方法:修改老化时间。 可能原因2:消息的createTime时间戳不对。 Console页面是根据时间查询的,所以查不到。时间戳是由客户端生成,不同客户端有不同的处理策略,有的客户端默认值会是0或者-1,则查询不到消息。