检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
如果是访问未开启SASL的Kafka实例 支持的访问方式如下:同一VPC内访问、公网访问、跨VPC访问和DNAT访问。 同一VPC内使用IPv4地址访问,访问端口为9092。 同一VPC内使用IPv6地址访问,访问端口为9192。 公网访问,访问端口为9094。 使用VPCEP跨VPC访问,访问端口为9011。
${connection-address} --list 参数说明如下:connection-address表示Kafka实例的连接地址,在Kafka控制台的“基本信息 > 连接信息”中获取。 示例如下: [root@ecs-kafka bin]# ./kafka-consumer-groups.sh --bootstrap-server
connection-address:在Kafka控制台的“基本信息 > 连接信息”中,获取Kafka实例的连接地址。 topic-name:Topic名称。 示例如下: [root@ecs-kafka bin]# ./kafka-topics.sh --bootstrap-server 192
connection-address:在Kafka控制台的“基本信息 > 连接信息”中,获取Kafka实例的连接地址。 consumer-group-name:消费组名称。 示例如下: [root@ecs-kafka bin]# ./kafka-consumer-groups.sh --bootstrap-server
获取Kafka命令行工具2.7.2版本。 购买客户端服务器。 购买1台ECS服务器(区域、可用区、虚拟私有云、子网、安全组与Kafka实例保持一致,Linux系统),具体步骤请参考购买弹性云服务器。 购买完成ECS后,需要在ECS中完成以下配置: 安装Java JDK,并配置JAVA_HOME与PATH环境变量。
Kafka Manager”后,单击,关闭Kafka Manager。 关闭Kafka Manager后,控制台不显示Kafka Manager连接地址,不支持重置Kafka Manager密码和重启Kafka Manager功能。 父主题: 管理Kafka Manager
> 连接信息”中,获取Kafka实例的连接地址。 topic-name:Topic名称。 number-of-partitions:Topic的分区数。出于性能考虑,建议单个Topic的分区数设置为200以内。 示例如下: [root@ecs-kafka bin]# ./kafka-topics
--all-groups 参数说明如下:connection-address表示Kafka实例的连接地址,在Kafka控制台的“基本信息 > 连接信息”中获取。 示例如下: [root@ecs-kafka bin]# ./kafka-consumer-groups.sh --bootstrap-server
endpoint.identification.algorithm= 加载SSL证书文件失败 出现下图的错误信息: 解决方案: 请检查对应地址的client.jks文件是否存在。 检查进程和文件所属权限。 检查consumer.properties和producer.properties文件中的ssl
Smart Connect 开启Smart Connect(按需实例) 关闭Smart Connect(按需实例) 创建Smart Connect任务 查询Smart Connect任务列表 查询Smart Connector任务详情 删除Smart Connector任务 暂停Smart
SDK概述 本文介绍了分布式消息服务Kafka版提供的SDK语言版本,列举了最新版本SDK的获取地址。 在线生成SDK代码 API Explorer能根据需要动态生成SDK代码功能,降低您使用SDK的难度,推荐使用。 SDK列表 在开始使用之前,请确保您安装的是最新版本的SDK。
使用Smart Connect迁移数据 开启Smart Connect 配置Kafka间的数据复制 配置Kafka数据转储至OBS 管理Smart Connect任务 关闭Smart Connect 父主题: 迁移数据
group_id String 消费组ID。 id Integer 对应协调器的broker id。 host String 对应协调器的地址。 port Integer 端口号。 响应示例 { "coordinators": [ {
Smart Connect 修改转储任务的配额 创建关闭实例转储节点的订单 创建转储任务 查询转储任务列表 查询单个转储任务 删除单个转储任务 父主题: API V2
配置网络环境。 Kafka实例分内网地址以及公网地址两种网络连接方式。如果使用公网地址,则消息生成与消费客户端需要有公网访问权限,并配置如下安全组。 表1 安全组规则 方向 协议 端口 源地址 说明 入方向 TCP 9094 Kafka客户端所在的IP地址或地址组 通过公网访问Kafka(明文接入)。
如果已开启公网访问,在“弹性IP地址”中,选择新扩容代理的公网IP地址。 “子网”保持默认设置。 在“内网IP地址”中,选择“自动分配”或者“手动选择”。 自动分配:系统自动分配子网中可用的IP地址。 手动选择:在下拉框中为新扩容代理勾选指定的IP地址。如果指定的IP地址数量少于代理数量时,系统会自动为剩余代理分配IP地址。
单击“下载”,下载连接实例的SSL证书。 内网连接地址 未开启公网访问时,连接实例的地址。 显示的连接地址个数为实例代理个数。 Manager内网访问地址 未开启公网访问时,连接Kafka Manager的地址。 2023年5月17日及以后创建的实例不提供此地址。 Manager用户名 连接Kafka
前提条件 已准备一台Linux系统的服务器,并安装Java Development Kit 1.8.111或以上版本,配置JAVA_HOME与PATH环境变量。 实例已开启Kafka SASL_SSL。 步骤一:制作证书 登录Linux系统的服务器,执行以下命令,生成server.keystore
请求什么类型的操作。 GET:请求服务器返回指定资源。 PUT:请求服务器更新指定资源。 POST:请求服务器新增资源或执行特殊操作。 DELETE:请求服务器删除指定资源,如删除对象等。 HEAD:请求服务器资源头部。 PATCH:请求服务器更新资源的部分内容。当资源不存在的时
创建转储任务 功能介绍 创建转储任务。 当前页面API为历史版本API,未来可能停止维护。请使用开启Smart Connect(按需实例)。 调用方法 请参见如何调用API。 URI POST /v2/{project_id}/connectors/{connector_id}/sink-tasks