检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
ShowSinkTaskDetailRequest request = new ShowSinkTaskDetailRequest(); request.withTopicInfo(ShowSinkTaskDetailRequest.TopicInfoEnum
public static void main(String[] args) { // The AK and SK used for authentication are hard-coded or stored in plaintext, which has great
balance when creating topic : projectman_project_enterprise_project Try again. 问题现象: 在Kafka Manager中无法创建topic,报错:Yikes! Insufficient partition balance
n。根据接入类型分为:PlainText、SASL_SSL和SASL_PLAINTEXT。 PlainText:客户端通过明文连接Kafka实例。 SASL_SSL:客户端通过密文连接Kafka实例,且连接时需要进行SASL认证。SASL认证分为PLAIN和SCRAM-SHA-512。
Length Required 服务器无法处理客户端发送的不带Content-Length的请求信息。 412 Precondition Failed 未满足前提条件,服务器未满足请求者在请求中设置的其中一个前提条件。 413 Request Entity Too Large 由于
public static void main(String[] args) { // The AK and SK used for authentication are hard-coded or stored in plaintext, which has great
不能与用户名或倒序的用户名相同。 SASL PLAIN机制 勾选“开启SASL PLAIN机制”。密文接入成功开启后,SASL PLAIN机制不支持修改。 开启SASL PLAIN机制后,同时支持SCRAM-SHA-512机制和PLAIN机制,根据实际情况选择其中任意一种配置连接。
#SASL认证机制为“PLAIN”时,配置信息如下。 sasl_mechanism => "PLAIN" sasl_jaas_config => "org.apache.kafka.common.security.plain.PlainLoginModule required
"domain_id": "accountid", "name": "username", "password": "**********", "email": "email", "description":
/v2/instances/maintain-windows 请求参数 无 响应参数 状态码:200 表1 响应Body参数 参数 参数类型 描述 maintain_windows Array of MaintainWindowsEntity objects 支持的维护时间窗列表。 表2 MaintainWindowsEntity
查询维护时间窗开始时间和结束时间。 URI GET /v1.0/instances/maintain-windows 请求消息 请求参数 无。 请求示例 GET https://{dms_endpoint}/v1.0/instances/maintain-windows 响应消息 响应参数 参数说明见表表1、表2
SASL认证机制如何修改? Kafka实例的SASL认证机制包括SCRAM-SHA-512和PLAIN。 密文接入成功开启后,不支持修改SASL认证机制。如果需要修改,请重新创建实例。 父主题: 实例问题
权限和授权项 如果您需要对您所拥有的Kafka实例进行精细的权限管理,您可以使用统一身份认证服务(Identity and Access Management,简称IAM),如果华为账号已经能满足您的要求,不需要创建独立的IAM用户,您可以跳过本章节,不影响您使用Kafka实例的其它功能。
修改。 跨VPC访问协议的取值如下: PLAINTEXT:表示客户端访问Kafka实例时,无需认证,数据通过明文传输。 SASL_SSL:表示客户端访问Kafka实例时,使用SASL认证,数据通过SSL证书加密传输。 SASL_PLAINTEXT:表示客户端访问Kafka实例时,使用SASL认证,数据通过明文传输。
createDMSInstanceOrderFailure 创建DMS实例任务执行失败 kafka createDMSInstanceTaskFailure 删除创建失败的DMS实例成功 kafka deleteDMSCreateFailureInstancesSuccess 删除创建失败的DMS实例失败
values 参数 参数类型 描述 detail Array of detail objects 规格详情。 name String 实例类型。 unavailable_zones Array of strings 资源售罄的可用区列表。 available_zones Array of
请参见如何调用API。 URI GET /v2/available-zones 请求参数 无 响应参数 状态码:200 表1 响应Body参数 参数 参数类型 描述 region_id String 区域ID。 available_zones Array of AvailableZonesResp objects
15消费进度提交失败 问题现象 Flink 1.15版本消费Kafka时, 消费进度提交失败,持续报错:COORDINATOR_NOT_AVAILABLE。 根因描述 Flink 1.15版本使用的Kafka客户端存在bug,当某次消费进度提交失败后, 客户端将coordinator置为不可用且无法自动恢复。
在创建实例时,需要配置实例所在的可用区ID,可通过该接口查询可用区的ID。 URI GET /v1.0/availableZones 请求消息 请求参数 无。 请求示例 GET https://{dms_endpoint}/v1.0/availableZones 响应消息 响应参数 参数说明见表1、表2。 表1 参数说明
说明 detail Array 规格详情。具体参数,请参见表5。 name String 实例类型。 unavailable_zones Array 资源售罄的可用区。 available_zones Array 有可用资源的可用区。 表5 Kafka实例的detail参数说明 参数