检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
如果IP或端口不通,请检查源端主机安全组入方向规则中,协议端口号为TCP:22和ICMP:全部的源地址是否配置为安装Edge主机的公网IP。确认安全组规则配置无误后,重新进行深度采集。 源端为Windows主机 登录源端主机,开启WinRM服务,方法请参考WinRM服务配置与故障排查。开启WinRM服务后重新进行深度采集。如果仍然失败,请执行步骤2
根据实际需求,选择大数据组件类型和统计方式,单击“下一步”,进入详细配置页面。 根据对应的参数配置说明,配置所选的统计方式参数。 各组件之间配置参数略有区别,请以实际页面为准。 全量对数作业参数配置说明 日级增量对数参数配置说明 小时级增量对数参数配置说明 指定日期校验参数配置说明 指定时间校验参数配置说明
批量修改与还原源端Linux主机的Host配置 概述 准备工作 配置脚本 父主题: 主机迁移相关最佳实践
文件基础上进行修改。 config_path 是 填写配置文件(yaml文件)的存储路径。 注意: 配置文件所在文件夹仅能存放与采集相关的yaml配置文件,可以存放多个配置文件,但不能存放与采集无关的其它yaml文件。 配置文件内容获取方法如下: 在需要采集的k8s集群服务器上,
批量修改与还原源端Windows主机的Host配置 概述 准备工作 脚本示例 常见问题 父主题: 主机迁移相关最佳实践
、版本、消费者信息等。参数配置说明参见表1。 表1 Kafka采集器参数配置说明 参数 必选 配置说明 output_path 否 自定义采集结果(app-discovery-kafka-xxx.csv文件)输出路径。不填则输出至默认路径:<采集器安装目录>\output\file目录下。
连接类型选择“数据湖探索 (DLI)”,单击“下一步”,进入详细配置页面。 根据DLI服务参数配置说明,配置连接参数后,单击“测试连接”按钮,测试通过代表连接成功。 表1 DLI服务参数配置说明 参数 配置说明 所属源 选择目的端。 连接名称 默认创建名称为“DLI-4位随机数(字母和数字)”,也可以自定义名称。
建议使用采集器提供的默认节点接入配置文件进行采集,如果需要自定义配置文件,请在默认配置文件基础上进行修改。 config_path 否 填写集群配置文件(yaml文件)的存储路径。或者在采集器的config目录下创建kube-config文件夹,并将集群配置文件放入,则config_p
≥1m,取整数。 config_path 是 填写集群配置文件(yaml文件)的存储路径。 注意: 配置文件所在文件夹仅能存放与采集相关的yaml配置文件,可以存放多个配置文件,但不能存放与采集无关的其它yaml文件。 配置文件内容获取方法如下: 在需要采集的k8s集群服务器上,
、连接客户端IP信息。参数配置说明参见表1。 表1 Redis采集器参数配置说明 参数 必选 配置说明 output_path 否 自定义采集结果(app-discovery-redis-xxx.csv文件)输出路径。不填则输出至默认路径:<采集器安装目录>\output\file目录下。
Windows进程与网络采集器参数配置说明 参数 必选 配置说明 host_path 是 填写待采集的Windows主机授权信息列表文件(csv文件)所保存的路径(如,D:\nodes.csv)。 授权信息列表文件(csv文件)需要您自行创建,在csv文件的第一行(即表头),请按照以下顺序和参数名称填写
脚本示例 配置update_hosts_win.ps1脚本 配置rollback_hosts_win.ps1脚本 父主题: 批量修改与还原源端Windows主机的Host配置
oint等信息。参数配置说明参见表1。 表1 RabbitMQ采集器参数配置信息 参数 必选 配置说明 output_path 否 自定义采集结果(app-discovery-rabbitmq-xxx.csv文件)输出路径。不填则输出至默认路径:<采集器安装目录>\output\file目录下。
Hive校验的sum统计结果显示未达标 问题描述 对Hive进行大数据校验,Hive中的double字段保存的值为 1.7976931348623157E308 和 -1.7976931348623157E308 时 sum 统计结果显示未达标。 问题分析 使用spark-sql 客户端,进行sql操作
分别创建源端执行机连接和目的端执行机连接,方法请参考创建执行机连接。执行机凭证分别选择步骤4.在Edge侧添加的源端和目的端执行机凭证。 在MgC控制台,分别创建源端和目的端Delta统计任务并执行,方法请参考创建统计任务并执行校验。需要注意任务配置中的表组,选择步骤16.创建的表组。
e,在这种情况下,系统会报告元数据对比失败,但实际上数据迁移是成功的,您可以前往目的端确认对象是否已成功迁移。 场景二: 当源端和目标端的元数据不一致时,迁移会显示执行失败。请尝试重新执行迁移。如果问题依旧,请直接联系技术支持或提交工单求助。 父主题: 存储迁移
分别创建源端执行机连接和目的端执行机连接,方法请参考创建执行机连接。执行机凭证分别选择步骤4.在Edge侧添加的源端和目的端执行机凭证。 在MgC控制台,分别创建源端和目的端Delta统计任务并执行,方法请参考创建统计任务并执行校验。需要注意任务配置中的表组,选择步骤16.创建的表组。
如何启用 WinRM 服务 执行脚本后报错:连接到远程服务器失败,且登录凭证信息正确 父主题: 批量修改与还原源端Windows主机的Host配置
log文件,采集vpc流量信息。参数配置说明参见表1。 表1 Cloud-vpc-log采集器参数配置说明 参数 必选 配置说明 output_path 否 自定义采集结果(app-discovery-cloud-vpc-log-xxx.csv文件)输出路径。不填则输出至默认路径:<采集器安装目录>\output\file目录下。
不是同一个时,需要进行额外的网络配置,以确保SFS 1.0、SFS 3.0和集群之间的网络连通。 SFS 1.0网络打通 SFS 1.0通过创建对等连接来打通网络,方法请参考创建相同账户下的对等连接。 SFS 3.0网络打通 SFS 3.0通过配置VPC终端节点并添加与迁移集群相同的VPC来实现网络打通。