检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
配置说明 output_path 否 自定义采集结果(app-discovery-k8s-pod-net-xxx.csv文件)输出路径。不填则输出至默认路径:<采集器安装目录>\output\file目录下。 例如,C:\Edge\tools\plugins\collectors\a
output_path 否 自定义采集结果(app-discovery-process-netstat-xxx.csv文件)输出路径。不填则输出至默认路径:<采集器安装目录>\output\file目录下。 例如,C:\Edge\tools\plugins\collectors\a
参数 必选 配置说明 output_path 否 自定义采集结果(app-discovery-nginx-xxx.csv文件)输出路径。不填则输出至默认路径:<采集器安装目录>\output\file目录下。 例如,C:\Edge\tools\plugins\collectors\a
脚本的内存不足,导致迁移失败。 解决方法 检查并调整PowerShell内存配置。 在源端待迁移主机的PowerShell内执行以下命令,查看PowerShell运行时的内存配置参数。 Get-Item WSMan:\localhost\Shell\MaxMemoryPerShellMB
参数 必选 配置说明 output_path 否 自定义采集结果(app-discovery-nacos-xxx.csv文件)输出路径。不填则输出至默认路径:<采集器安装目录>\output\file目录下。 例如,C:\Edge\tools\plugins\collectors\a
和租户ID。 在左侧导航树选择“证书和密码”,选择“客户端密码”页签,单击“新客户端密码”,创建一个新的密码。新创建的密码只能在创建时立即查看,请务必复制并备份。 父主题: 资源采集
指定日志文件和内容校验结果在日志桶内的存放文件夹,填写以“/”开头的文件夹路径。例如:桶名为“mgc01”,填写的文件夹为“/test”,则日志文件存放路径为:obs://mgc01/test/bigdata/task/日期/任务实例ID/日志文件;内容校验结果存放路径为:obs://mgc01/test/bi
在任务管理页签,可以查看已创建的数据湖元数据同步任务列表以及参数配置信息。单击操作列的“更多>修改”,可以修改任务参数配置。 单击操作列的“运行任务”,即可触发一次任务执行。每执行一次任务,会生成一条任务实例。 单击操作列的“查看实例”,进入任务实例管理页签。可以查看该任务的运行记录
NAS_GFS。 目的端支持的类型:NAS_NFS_V3_MOUNT。 约束与限制 存储迁移的约束与限制同样适用于文件存储批量迁移,详情请查看存储迁移的约束与限制有哪些? 准备工作 华为账号准备 使用MgC之前,您需要拥有一个华为账号或一个可用于访问MgC的IAM用户。获取方法请参考准备工作。
在增量数据校验中,如果通过Metastore查询,当分区数量超过30,000时,可能会因为将所有分区信息加载到内存中而导致内存溢出(OOM)。因此,使用MySQL作为元数据仓可以有效地解决这一问题。 不启用:系统通过MetaStore查询Hive表的分区信息。 启用:配置MySQL
务管理页签,可以查看已创建的数据湖元数据同步任务列表以及参数配置信息。单击操作列的“更多>修改”,可以修改任务参数配置。 单击操作列的“运行任务”,即可触发一次任务执行。每执行一次任务,会生成一条任务实例。 单击操作列的“查看实例”,进入任务实例管理页签。可以查看该任务的运行记录
C网络Endpoint信息。 各地域VPC网络Endpoint信息请参考Endpoint对照表。 创建源端连接完成后,在连接管理页面,可以查看已创建的连接列表。如有需要,可以单击列表操作列的“修改链接”对连接配置进行修改。 父主题: 大数据数据迁移
C网络Endpoint信息。 各地域VPC网络Endpoint信息请参考Endpoint对照表。 创建源端连接完成后,在连接管理页面,可以查看已创建的连接列表。如有需要,可以单击列表操作列的“修改链接”对连接配置进行修改。 父主题: 大数据数据迁移(MaxCompute迁移到DLI)
中国-香港 亚太-新加坡 内网迁移 支持在同一Region内通过内网进行迁移。 软连接处理 MgC不支持源端路径为软链接的迁移。如果源端包含软链接,请进行如下处理: 填写实际的文件路径。 迁移完成后,手动在目的端创建相应的软链接。 父主题: SFS1.0迁移至SFS 3.0
在增量数据校验中,如果通过Metastore查询,当分区数量超过30,000时,可能会因为将所有分区信息加载到内存中而导致内存溢出(OOM)。因此,使用MySQL作为元数据仓可以有效地解决这一问题。 不启用:系统通过MetaStore查询Hive表的分区信息。 启用:配置MySQL
Windows主机进行深度采集后磁盘信息为空或磁盘信息错误 问题描述 在对Windows主机进行主机深度采集后,查看磁盘信息为空或磁盘信息显示乱码。 问题分析 出现该问题可能是因为该Windows主机的区域设置和显示语言不一致,从而导致采集磁盘信息失败。 解决方法 您可以按照以下步骤进行排查和解决:
Windows主机迁移后数据盘缺失,如何解决? 问题描述 Windows主机迁移完成后,登录目的端主机发现磁盘数量与源端主机不一致,有数据盘缺失,但在目的端控制台查看磁盘数量正常。 问题分析 出现该问题,可能是因为源端主机的磁盘策略为共享磁盘脱机或者离线模式,迁移后会导致数据盘处于脱机状态。 解决方法
Hive校验结果中的源端数据和目的端数据显示为“0”或“-1” 问题描述 对Hive进行大数据校验,校验任务执行成功,查看校验结果,发现部分字段的“源端数据”和“目的端数据”显示为“0”或“-1”。 问题分析 出现该问题可能是因为数值超出了Hive支持的数值范围。 在数据处理中,
参数 必选 配置说明 output_path 否 自定义采集结果(app-discovery-redis-xxx.csv文件)输出路径。不填则输出至默认路径:<采集器安装目录>\output\file目录下。 例如,C:\Edge\tools\plugins\collectors\a
必选 配置说明 output_path 否 自定义采集结果(app-discovery-rabbitmq-xxx.csv文件)输出路径。不填则输出至默认路径:<采集器安装目录>\output\file目录下。 例如,C:\Edge\tools\plugins\collectors\a