检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
与其他云服务的关系 云审计(Cloud Trace Service) 云审计为您提供云服务资源的操作记录,记录内容包括您从管理控制台或者开放API发起的云服务资源操作请求以及每次请求的结果,供您查询、审计和回溯使用。 当前CTS记录的操作,请参考云审计日志。 虚拟私有云(Virtual
默认为“false”,表示模糊匹配实例名称查询。若参数值为“true”表示按照实例名称进行精确匹配查询。 enterprise_project_id String 否 企业项目ID。 请求消息 请求参数 无。 请求示例 GET https://{dms_endpoint}/v1.0/{project_id}/instances
既未采用SSL证书进行加密传输,也不支持账号密码认证。性能更好,安全性较低,建议在生产环境下公网访问不使用此方式。 SASL_SSL: 采用SSL证书进行加密传输,支持账号密码认证,安全性更高。 SASL_PLAINTEXT: 明文传输,支持账号密码认证,性能更好,建议使用SCRAM-SHA-512机制。
String 开启SASL后使用的安全协议。 SASL_SSL: 采用SSL证书进行加密传输,支持账号密码认证,安全性更高。 SASL_PLAINTEXT: 明文传输,支持账号密码认证,性能更好,建议使用SCRAM-SHA-512机制。 sasl_enabled_mechanisms
ssl_enable Boolean 是否开启安全认证。 true:开启 false:未开启 enterprise_project_id String 企业项目ID。 is_logical_volume Boolean 实例扩容时用于区分老实例与新实例。 true:新创建的实例,允许磁盘动态扩容不需要重启。
参数specification为1200MB时,取值dms.physical.storage.ultra enterprise_project_id String 否 企业项目ID。 tags Array<Object> 否 标签列表。 表3 tags 参数 参数类型 是否必选 描述 key String 否
####################### #如果不使用密文接入,以下参数请注释掉。 ####################### #设置SASL认证机制、账号和密码。 #sasl.mechanism为SASL认证机制,username和password为SASL的用户名和密码,参考“收集连接信息
(可选)步骤二:添加白名单 VPCEP允许跨账号的终端节点连接终端节点服务,通过设置终端节点服务的白名单实现。 Kafka客户端和Kafka实例属于不同账号时,将Kafka客户端所在账号的ID添加到终端节点服务的白名单中,完成跨账号终端节点的访问授权,具体操作步骤请参考添加白名单。
既未采用SSL证书进行加密传输,也不支持账号密码认证。性能更好,安全性较低,建议在生产环境下公网访问不使用此方式。 SASL_SSL: 采用SSL证书进行加密传输,支持账号密码认证,安全性更高。 SASL_PLAINTEXT: 明文传输,支持账号密码认证,性能更好,建议使用SCRAM-SHA-512机制。
如何选择磁盘类型请参考《云硬盘 产品介绍》的“磁盘类型及性能介绍”。 enterprise_project_id 否 String 企业项目ID。若为企业项目账号,该参数必填。 tags 否 Array of TagEntity objects 标签列表。 arch_type 否 String
GET:请求服务器返回指定资源。 PUT:请求服务器更新指定资源。 POST:请求服务器新增资源或执行特殊操作。 DELETE:请求服务器删除指定资源,如删除对象等。 HEAD:请求服务器资源头部。 PATCH:请求服务器更新资源的部分内容。当资源不存在的时候,PATCH可能会去创建一个新的资源。
单代理存储空间:超高I/O,200GB 虚拟私有云:选择虚拟私有云 子网:选择子网 安全组:选择安全组 访问方式:保持默认 实例名称:kafka-test 企业项目:default 购买完成后,在实例详情页获取Kafka实例的内网明文连接地址。 在购买的Kafka实例中,创建如下参数的3个Topic,具体步骤请参考创建Kafka
开启Smart Connect Smart Connect用于Kafka实例和其他云服务(如OBS)之间的数据同步,或者两个Kafka实例之间的数据同步,实现数据的备份或迁移。 Smart Connect的使用流程为: 开启Smart Connect。 创建Smart Connect任务。
告警级别 选择“重要”。 通知类型 选择“触发”,即触发告警时发送通知。 接收对象 选择“主题订阅”,单击“创建主题”,进入消息通知服务中,创建主题和添加订阅。创建完成后,返回“创建告警规则”页面,在“通知对象”后单击,然后选择创建的告警通知主题。 说明: 在添加订阅后,对应的订阅终
CreateSinkTaskRequest{} obsPathObsDestinationDescriptor:= "obsTransfer-1122976956" recordDelimiterObsDestinationDescriptor:= "" obsDestinationDescriptorbody
producer开启幂等时(生产者客户端3.0及之后的版本默认开启幂等),生产消息会在服务端创建生产者状态对象,若频繁创建producer,会导致服务端创建大量生产者状态对象后无法及时回收,服务端内存占用飙升,进而导致服务端性能急剧下降。如果不需要使用幂等功能,请将“enable
destination_file_type String 转储文件格式。目前只支持text格式。 obs_bucket_name String 存储该通道数据的OBS桶名称。 obs_path String 存储在obs的路径。 partition_format String 将转储文件的生成时间使
类型为OBS时会显示) destination_file_type String 转储文件格式。当前只支持TEXT。(仅目标端类型为OBS时会显示) deliver_time_interval Integer 记数据转储周期(秒)。(仅目标端类型为OBS时会显示) obs_bucket_name
否 String 转储地址,即存储Topic数据的OBS桶的名称。(仅目标端类型为OBS时需要填写) obs_path 否 String 转储目录,即OBS中存储Topic的目录,多级目录可以用“/”进行分隔。(仅目标端类型为OBS时需要填写) partition_format 否
API接口-查询监控数据。 命名空间 SYS.DMS 实例监控指标 表1 实例支持的监控指标 指标ID 指标名称 指标含义 取值范围 测量对象 监控周期(原始指标) current_partitions 分区数 该指标用于统计Kafka实例中已经使用的分区数量。 单位:个 0~100000