检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
成本管理 随着上云企业越来越多,企业对用云成本问题也越发重视。使用分布式消息服务Kafka版时,如何进行成本管理,减轻业务负担呢?本文将从成本构成、成本分配、成本分析和成本优化四个维度介绍成本管理,帮助您通过成本管理节约成本,在保障业务快速发展的同时获得最大成本收益。 成本构成
指定可用区时,用逗号分隔开。参数设置参考如下示例。 一个可用区:"available_zones": [ "a0865121f83b41cbafce65930a22a6e8" ] 三个及以上可用区:"available_zones": ["a0865121f83b41cbafce65930a22a6e8"
分布式消息服务Kafka版 介绍如何设置消息堆积数超过阈值时,发送告警短信/邮件 05:40 配置告警通知 分布式消息服务Kafka版 介绍如何将一个Kafka实例的数据,同步到另一个Kafka实例中 06:41 两个Kafka实例的数据复制 分布式消息服务Kafka版 介绍如何修改Topic分区平衡
到消息? Kafka消息堆积了怎么办? 消息超过老化时间,消息仍存在的原因 Kafka实例是否支持延迟消息? 如何查看堆积消息数? 为什么消息创建时间显示1970? 如何修改message.max.bytes参数? 为什么offset不连续?
本章节介绍在对消费消息实时性要求不高的场景中,如何优化消费者Polling,减少消息较少或者没有消息时的资源浪费。 Logstash对接Kafka生产消费消息 Kafka实例可以作为Logstash输入源,也可以作为Logstash输出源。本章节介绍Logstash如何对接Kafka实例生产消费消息。
createDMSInstanceOrderFailure 创建DMS实例任务执行失败 kafka createDMSInstanceTaskFailure 删除创建失败的DMS实例成功 kafka deleteDMSCreateFailureInstancesSuccess 删除创建失败的DMS实例失败
values 参数 参数类型 描述 detail Array of detail objects 规格详情。 name String 实例类型。 unavailable_zones Array of strings 资源售罄的可用区列表。 available_zones Array of
说明 detail Array 规格详情。具体参数,请参见表5。 name String 实例类型。 unavailable_zones Array 资源售罄的可用区。 available_zones Array 有可用资源的可用区。 表5 Kafka实例的detail参数说明 参数
"phy_ca.crt" //SSL证书参考“收集连接信息”章节获取。如果Kafka安全协议设置为“SASL_PLAINTEXT”,请删除此参数。 ) func main() { log.Println("Starting a new kafka producer") config
以给实例添加20个标签。 支持区域: 全部 如何管理标签? 监控 云监控对Kafka实例的运行状态进行日常监控,可以通过控制台直观的查看Kafka实例各项监控指标。 支持区域: 全部 监控指标有哪些? 必须配置的监控告警有哪些? 如何查看监控数据? 审计 云审计服务(Cloud Trace
运维与监控 支持的监控指标 设置监控指标告警 支持的云审计操作列表 常见问题 了解更多常见问题、案例和解决方案 热门案例 如何连接和查看Kafka Manager? 通过公网如何连接Kafka实例? 为什么云监控页面无法展示Kafka监控数据? 为什么限制Topic的总分区数? Kafka实例的Topic数量是否有限制
"description": "instance description", "maintain_begin":"02:00:00", "maintain_end":"06:00:00" } 响应消息 响应参数 无。 响应样例 无。 状态码 操作成功的状态码如表3所示,其他响应见状态码。
400 DMS.00400067 The available_zones parameter in the request must be an array that contains only one AZ ID. 请求参数available_zones非法,必须为只包含一个可用区ID的数组。
##如果Kafka安全协议设置为“SASL_PLAINTEXT”,请注释以下参数。 context.verify_mode = ssl.CERT_REQUIRED ##证书文件,SSL证书参考“收集连接信息”章节获取。如果Kafka安全协议设置为“SASL_PLAINTEXT”,请注释以下参数。 context
实例创建成功后,跨VPC访问安全协议无法修改。 SASL PLAIN机制 - 未开启“SASL PLAIN机制”时,使用SCRAM-SHA-512机制对账号密码进行认证。 开启“SASL PLAIN机制”后,同时支持SCRAM-SHA-512机制和PLAIN机制,根据实际情况选择其中任意一种配置连接。
mechanism=SCRAM-SHA-512 #SASL认证机制为“PLAIN”时,配置信息如下。 sasl.jaas.config=org.apache.kafka.common.security.plain.PlainLoginModule required \ username="**********"
\src\main\java\com\dms\consumer 消费消息的API。 DmsProducer.java .\src\main\java\com\dms\producer 生产消息的API。 dms.sdk.consumer.properties .\src\main\resources
5567", "user_name": "laiyh", "kafka_manager_user": "root", "maintain_begin": "22:00:00", "maintain_end": "02:00:00", "storage_space":
mechanism=SCRAM-SHA-512 #SASL认证机制为“PLAIN”时,配置信息如下。 sasl.jaas.config=org.apache.kafka.common.security.plain.PlainLoginModule required \ username="**********"
mechanism=SCRAM-SHA-512 #SASL认证机制为“PLAIN”时,配置信息如下。 sasl.jaas.config=org.apache.kafka.common.security.plain.PlainLoginModule required \ username="**********"