检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Kafka实例的内网连接地址可以修改吗? 不支持修改,且不支持指定IP地址。 父主题: 连接问题
单击Kafka实例的名称,进入实例的“基本信息”页面。 密文接入分为内网访问密文接入和公网访问密文接入,开启密文接入方法如表2所示。 表2 开启密文接入方法 接入方式 开启密文接入 内网访问密文接入 在“内网访问 > 密文接入”后,单击,弹出“内网访问密文接入”对话框。 设置kafka安全协议、SASL
Boolean 实例是否支持内网PLAINTEXT访问接入方式。 true:实例支持内网PLAINTEXT访问方式接入方式。 false:实例不支持内网PLAINTEXT访问接入方式。 private_plain_address String kafka内网PLAINTEXT接入方式连接地址。
Boolean 实例是否支持内网PLAINTEXT访问接入方式。 true:实例支持内网PLAINTEXT访问方式接入方式。 false:实例不支持内网PLAINTEXT访问接入方式。 private_plain_address String kafka内网PLAINTEXT接入方式连接地址。
Boolean 实例是否支持内网PLAINTEXT访问接入方式。 true:实例支持内网PLAINTEXT访问方式接入方式。 false:实例不支持内网PLAINTEXT访问接入方式。 private_plain_address String kafka内网PLAINTEXT接入方式连接地址。
和密码等信息。 区域(Region) 从地理位置和网络时延维度划分,同一个Region内共享弹性计算、块存储、对象存储、VPC网络、弹性公网IP、镜像等公共服务。Region分为通用Region和专属Region,通用Region指面向公共租户提供通用云服务的Region;专属R
2023年5月17日及以后创建的实例不提供此地址。 VPC内网明文访问 是否开启VPC内网明文访问开关。 表3 连接参数说明(明文密文访问) 信息类型 参数 子参数 说明 连接信息 用户名 - 开启密文接入后,连接实例的用户名。 内网访问 明文接入 是否开启明文接入。 内网明文连接地址 明文接入开启后,才显示此参数。
获取Kafka命令行工具2.7.2版本。 购买客户端服务器。 购买如下参数的2台ECS服务器,具体步骤请参考购买弹性云服务器。 区域、可用区、虚拟私有云、子网、安全组与Kafka实例保持一致,规格为4U8G,Linux系统的ECS。 区域、虚拟私有云、子网、安全组与Kafka实例保
获取Kafka命令行工具2.7.2版本。 购买客户端服务器。 购买1台ECS服务器(区域、可用区、虚拟私有云、子网、安全组与Kafka实例保持一致,Linux系统),具体步骤请参考购买弹性云服务器。 购买完成ECS后,需要在ECS中完成以下配置: 安装Java JDK,并配置JAVA_HOME与PATH环境变量。
of strings 创建实例时可以手动指定实例节点的内网IP地址,仅支持指定IPv4地址。 指定内网IP地址数量必须小于等于创建的节点数量。 如果指定的内网IP地址数量小于创建的节点数量时,系统会自动为剩余的节点随机分配内网IP地址。 publicip_id 否 String 实例绑定的弹性IP地址的ID。
独占Kafka实例。 创建Kafka Topic 创建用于存储消息的Topic,供生产者生产消息以及消费者订阅消息。 连接实例 客户端使用内网/公网连接Kafka实例,并生产消费消息。
实例管理 重置密码 重置Manager密码 重启Manager 开启或关闭实例自动创建topic功能 修改实例跨VPC访问的内网IP 查询Kafka集群元数据信息 查询Kafka实例的协调器信息 修改Kafka实例Topic分区的副本 修改Kafka的接入方式 查询topic的磁盘存储情况
修改Kafka的接入方式 功能介绍 修改Kafka的内网或者公网接入方式。 调用方法 请参见如何调用API。 URI POST /v2/{project_id}/{engine}/instances/{instance_id}/plain-ssl-switch 表1 路径参数 参数
在“规则配置”区域,设置以下参数。 表2 复制数据规则参数说明 参数 参数说明 同步方式 支持以下三种同步方式: 拉取:把对端Kafka实例数据复制到当前Kafka实例中。 推送:把当前Kafka实例数据复制到对端Kafka实例中。 双向:两端Kafka实例数据进行双向复制。 Topics 设置需要进行数据复制的Topic。
Failed 未满足前提条件,服务器未满足请求者在请求中设置的其中一个前提条件。 413 Request Entity Too Large 由于请求的实体过大,服务器无法处理,因此拒绝请求。为防止客户端的连续请求,服务器可能会关闭连接。如果只是服务器暂时无法处理,则会包含一个Retry-After的响应信息。
已准备一台Linux系统的服务器,并安装Java Development Kit 1.8.111或以上版本,配置JAVA_HOME与PATH环境变量。 实例已开启Kafka SASL_SSL。 步骤一:制作客户端验证服务端的证书 登录Linux系统的服务器,执行以下命令,生成server
请求什么类型的操作。 GET:请求服务器返回指定资源。 PUT:请求服务器更新指定资源。 POST:请求服务器新增资源或执行特殊操作。 DELETE:请求服务器删除指定资源,如删除对象等。 HEAD:请求服务器资源头部。 PATCH:请求服务器更新资源的部分内容。当资源不存在的时
实例升级 实例管理 包括: 重置密码 重置Manager密码 重启Manager 开启或关闭实例自动创建Topic功能 修改实例跨VPC访问的内网IP 查询Kafka集群元数据信息 查询Kafka实例的协调器信息 修改Kafka实例Topic分区的副本 修改Kafka的接入方式 查询Topic的磁盘存储情况
前提条件 已准备一台Linux系统的服务器,并安装Java Development Kit 1.8.111或以上版本,配置JAVA_HOME与PATH环境变量。 实例已开启Kafka SASL_SSL。 步骤一:制作证书 登录Linux系统的服务器,执行以下命令,生成server.keystore
Kafka服务和ZK是部署在相同的虚拟机中,还是分开部署? Kafka服务和ZK部署在相同的虚拟机中。 父主题: 实例问题