检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
详细操作请参考本地Windows主机使用FTP上传文件到Windows/Linux云服务器。 使用OBS上传文件 OBS可供用户存储任意类型的数据。将图片、视频等数据存储至OBS后,在ECS上可以访问OBS,下载桶中的图片或视频等数据。
详细操作请参考本地Windows主机使用FTP上传文件到Windows/Linux云服务器。 使用OBS上传文件 OBS可供用户存储任意类型的数据。将图片、视频等数据存储至OBS后,在ECS上可以访问OBS,下载桶中的图片或视频等数据。
本地Linux主机使用FTP上传文件到Linux云服务器 操作场景 本文介绍如何在 Linux 系统的本地机器上使用 FTP 服务,将文件从本地上传到云服务器中。 前提条件 已在待上传文件的云服务器中搭建 FTP 服务。
本地Linux主机使用FTP上传文件到Linux云服务器 操作场景 本文介绍如何在 Linux 系统的本地机器上使用 FTP 服务,将文件从本地上传到云服务器中。 前提条件 已在待上传文件的云服务器中搭建 FTP 服务。
在Windows服务器中无法登录Kafka Manager 问题现象 在Windows服务器的浏览器中输入Kafka Manager地址,无法登录Kafka Manager,报错信息如下图。 根因描述 Windows服务器和Kafka实例不在同一个VPC同一个子网内,或者安全组配置不正确,导致网络无法连通。
本地Windows主机使用FTP上传文件到Windows/Linux云服务器 操作场景 本节操作介绍如何在Windows操作系统的本地主机上使用FTP上传文件到云服务器。 前提条件 云服务器已绑定弹性公网IP,且安全组入方向开启TCP协议的21端口。
本地Linux主机使用SCP上传文件到Linux云服务器 操作场景 本节操作介绍本地Linux操作系统主机通过SCP向Linux云服务器传输文件的操作步骤。 操作步骤 登录管理控制台,在ECS列表页面记录待上传文件的云服务器的弹性公网IP。
本地Linux主机使用SCP上传文件到Linux云服务器 操作场景 本节操作介绍本地Linux操作系统主机通过SCP向Linux云服务器传输文件的操作步骤。 操作步骤 登录管理控制台,在ECS列表页面记录待上传文件的云服务器的弹性公网IP。
连接开启SASL_SSL的Kafka实例时,ssl truststore文件可以用PEM格式的吗? 可以使用PEM格式。使用PEM格式SSL证书连接Kafka实例的方法请参考获取和使用Kafka PEM格式的SSL证书。 父主题: 连接问题
本地Linux主机使用SFTP上传文件到Linux云服务器 操作场景 本节操作以CentOS操作系统为例,介绍配置SFTP、使用SFTP上传或下载文件、文件夹的操作步骤。 操作步骤 以root用户登录云服务器。 执行以下命令查看ssh版本,OpenSSH版本大于等于4.8p1。
本地Linux主机使用SFTP上传文件到Linux云服务器 操作场景 本节操作以CentOS操作系统为例,介绍配置SFTP、使用SFTP上传或下载文件、文件夹的操作步骤。 操作步骤 以root用户登录云服务器。 执行以下命令查看ssh版本,OpenSSH版本大于等于4.8p1。
algorithm= 加载SSL证书文件失败 出现下图的错误信息: 解决方案: 请检查对应地址的client.jks文件是否存在。 检查进程和文件所属权限。 检查consumer.properties和producer.properties文件中的ssl.truststore.password参数是否配置正确。
上传文件到云服务器缓慢怎么办? 上传文件到云服务器时,您可能会遇到上传速度慢的问题。该问题可能是由于网络带宽限制、文件大小和类型、服务器负载过高、上传方式和工具以及优化网络连接等原因所致。 本文介绍上传文件慢的可能原因与处理措施,帮助您提高云服务器的上传速度,提升用户体验。
前提条件 已准备一台Linux系统的服务器,并安装Java Development Kit 1.8.111或以上版本,配置JAVA_HOME与PATH环境变量。 实例已开启Kafka SASL_SSL。 步骤一:制作客户端验证服务端的证书 登录Linux系统的服务器,执行以下命令,生成server
Kafka Manager能否查询到消息的正文? Kafka Manager无法查询到消息的正文。 父主题: Kafka Manager问题
消息从生产到消费时延高达6分钟 问题现象 消息从生产到消费的端到端时延偶现到达6分钟,业务对消息时延较为敏感。 分析过程 怀疑是业务堆积,处理慢导致时延。 通过查看监控数据,发现业务请求并不是很多,堆积最多时也只有50条消息,同时每秒新增消息只有10条左右,应该还没有到达处理极限。
替换证书将重启实例,请谨慎操作。 前提条件 已准备一台Linux系统的服务器,并安装Java Development Kit 1.8.111或以上版本,配置JAVA_HOME与PATH环境变量。 实例已开启Kafka SASL_SSL。 步骤一:制作证书 登录Linux系统的服务器,执行以下命令,生成server
如何将Kafka实例中的数据同步到另一个Kafka实例中? Kafka实例支持创建Kafka数据复制类型的Smart Connect任务时,首先开启Smart Connect,然后创建Kafka数据复制类型的Smart Connect任务,实现两个Kafka实例数据的同步,具体步骤请参考创建Smart
重置消费进度到指定偏移量。 如果传入offset小于当前最小的offset,则重置到最小的offset。 如果大于最大的offset,则重置到最大的offset。 message_offset、timestamp二者必选其一。 timestamp 否 Long 重置消费进度到指定时间,格式为unix时间戳,单位为毫秒。
message_offset Long 二者必选其一 重置的消费进度到指定偏移量,如果传入offset小于当前最小的offset,则重置到最小的offset,如果大于最大的offset,则重置到最大的offset。 timestamp Long 重置的消费进度到指定时间,格式为unix时间戳。如果传入ti
重置消费进度到指定偏移量。 如果传入offset小于当前最小的offset,则重置到最小的offset。 如果大于最大的offset,则重置到最大的offset。 message_offset、timestamp二者必选其一。 timestamp 否 Long 重置消费进度到指定时间,格式为unix时间戳,单位为毫秒。
请求什么类型的操作。 GET:请求服务器返回指定资源。 PUT:请求服务器更新指定资源。 POST:请求服务器新增资源或执行特殊操作。 DELETE:请求服务器删除指定资源,如删除对象等。 HEAD:请求服务器资源头部。 PATCH:请求服务器更新资源的部分内容。当资源不存在的时
例前,请先创建开启弹性公网IP的ECS、安装JDK、配置环境变量以及下载Kafka开源客户端。 登录管理控制台,在左上角单击,选择“计算 > 弹性云服务器”,创建一个ECS实例。 创建ECS的具体步骤,请参考购买弹性云服务器。如果您已有可用的ECS,可重复使用,不需要再次创建。 使用root用户登录ECS。
以下示例演示在Java客户端使用PEM格式证书访问Kafka实例。 参考Java客户端接入示例,连接Kafka实例生产消费消息。其中,生产消息配置文件和消费消息配置文件中的SASL信息修改为如下内容。 #SASL认证机制为“PLAIN”时,配置信息如下。 sasl.mechanism=PLAIN sasl
Connect任务,通过Smart Connect任务可以将Kafka实例中的数据转储至OBS中,实现消息数据的备份。 源Kafka实例中的数据会实时同步到转储文件中。 约束与限制 单机实例不支持创建转储的Smart Connect任务。 一个实例最多创建18个Smart Connect任务。 Smart
根据SASL认证机制,修改Kafka命令行工具配置文件。 PLAIN机制:在Kafka命令行工具的“/config”目录中找到“consumer.properties”和“producer.properties”文件,并分别在文件中增加如下内容。 sasl.jaas.config=org
1 生产消息 在客户端创建一个文件,用于存放生产消息的代码示例。 touch producer.py producer.py表示文件名,您可以自定义文件名。 执行以下命令,编辑文件。 vim producer.py 将以下生产消息的代码示例写入文件中,并保存。 SASL认证方式 from
dev/dl/go1.16.5.linux-amd64.tar.gz #解压安装包到“/usr/local”目录,“/usr/local”目录可以根据实际情况修改。 sudo tar -C /usr/local -xzf go1.16.5.linux-amd64.tar.gz #设置环境变量。
在Windows主机中,解压Logstash压缩包,进入“config”文件夹,创建“output.conf”配置文件。 图3 创建“output.conf”配置文件 在“output.conf”配置文件中,增加如下内容,连接Kafka实例。 input { stdin
Kafka数据迁移概述 Kafka迁移指将生产与消费消息的客户端切换成连接新Kafka,部分还涉及将持久化的消息文件迁移到新的Kafka。主要涉及到以下2类场景: 业务上云且不希望业务有中断。 在上云过程中,连续性要求高的业务,需要平滑迁移,不能有长时间的中断。 在云上变更业务部署。