检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
务管理页签,可以查看已创建的数据湖元数据同步任务列表以及参数配置信息。单击操作列的“更多>修改”,可以修改任务参数配置。 单击操作列的“运行任务”,即可触发一次任务执行。每执行一次任务,会生成一条任务实例。 单击操作列的“查看实例”,进入任务实例管理页签。可以查看该任务的运行记录
Windows主机进行深度采集后磁盘信息为空或磁盘信息错误 问题描述 在对Windows主机进行主机深度采集后,查看磁盘信息为空或磁盘信息显示乱码。 问题分析 出现该问题可能是因为该Windows主机的区域设置和显示语言不一致,从而导致采集磁盘信息失败。 解决方法 您可以按照以下步骤进行排查和解决:
务管理页签,可以查看已创建的数据湖元数据同步任务列表以及参数配置信息。单击操作列的“更多>修改”,可以修改任务参数配置。 单击操作列的“运行任务”,即可触发一次任务执行。每执行一次任务,会生成一条任务实例。 单击操作列的“查看实例”,进入任务实例管理页签。可以查看该任务的运行记录
脚本的内存不足,导致迁移失败。 解决方法 检查并调整PowerShell内存配置。 在源端待迁移主机的PowerShell内执行以下命令,查看PowerShell运行时的内存配置参数。 Get-Item WSMan:\localhost\Shell\MaxMemoryPerShellMB
出现该问题,是因为选择的目的端规格仅支持Linux镜像。 解决方法 重新选择支持Windows镜像的目的端规格。选择目的端规格后,可以在镜像下拉列表中,查看是否有符合的镜像类型。 父主题: 规格评估
数据迁移失败,提示超过DLI网管流控上限 问题描述 进行大数据数据迁移失败,在数据湖探索的Spark作业查看报错信息为:The throttling thershold has been reached 问题分析 出现该问题,是因为您创建的资源数量已达到DLI服务流控限制阈值。 解决方法
主机(含深度采集) 数据库(含深度采集) 容器(含深度采集) 平台(含深度采集) 存储 采集项 说明 作用 ip 主机IP 用于深度采集 port 主机端口 用于深度采集 osType 系统类型 用于深度采集 name 主机名称 用于深度采集 采集项 说明 作用 name 主机名称 用于迁移前评估
0101 配置参数 *** 为空 查看评估推荐的服务器参数(镜像,磁盘)是否有遗漏,或联系MgC 技术支持人员,查看工作流数据库参数***是否为空。 SMS-Workflow.0102 配置参数 *** 有特殊字符 请联系MgC 技术支持人员,查看工作流数据库参数***是否有特殊字符。
是因为MgC Agent(原Edge)上报结果给MgC的过程中丢失。 解决办法: 方法一:单击工作流名称,在工作流详情页面的主机页签,可以查看每个资源工作流状态。 方法二:请联系技术支持人员帮忙追踪任务是否正常收发。 父主题: 主机迁移工作流
quickconfig开启)。 网络 请保证源端和目的端能够正常通信,目的端为Linux系统时需要对源端开放22端口,目的端为Windows系统时需要对源端开放22、8899、8900端口。 安装MgC Agent(原Edge)的主机 建议在源端内网环境中准备一台用于安装MgC Agent
任务管理页签,可以查看已创建的元数据同步任务列表以及参数配置信息。单击操作列的“更多>修改”,可以修改任务参数配置。 单击操作列的“运行任务”,即可触发一次任务执行。每执行一次任务,会生成一条任务实例。 单击操作列的“查看实例”,进入任务实例管理页签。可以查看该任务的运行记录,以
任务管理页签,可以查看已创建的元数据同步任务列表以及参数配置信息。单击操作列的“更多>修改”,可以修改任务参数配置。 单击操作列的“运行任务”,即可触发一次任务执行。每执行一次任务,会生成一条任务实例。 单击操作列的“查看实例”,进入任务实例管理页签。可以查看该任务的运行记录,以
Agent(原Edge)各种运行日志? 查看MgC Agent各种日志文件 执行如下命令,进入MgC Agent安装目录中的日志目录。该目录包含了MgC Agent运行时产生的各种日志文件。 cd /opt/cloud/Edge/logs/edge-server 使用vi命令来查看具体的日志文件。 vi
主机深度采集成功,部分采集规格信息缺失 问题描述 进行主机深度采集后,在资源详情中查看采集的基本信息和规格信息,发现存在部分信息缺失的情况。 问题分析 出现该问题,可能是在安装MgC Agent(原Edge)主机上的Linux采集脚本时,UNIX换行符格式不正确。正常情况下,Li
C网络Endpoint信息。 各地域VPC网络Endpoint信息请参考Endpoint对照表。 创建源端连接完成后,在连接管理页面,可以查看已创建的连接列表。如有需要,可以单击列表操作列的“修改链接”对连接配置进行修改。 父主题: 大数据数据迁移(MaxCompute迁移到DLI)
C网络Endpoint信息。 各地域VPC网络Endpoint信息请参考Endpoint对照表。 创建源端连接完成后,在连接管理页面,可以查看已创建的连接列表。如有需要,可以单击列表操作列的“修改链接”对连接配置进行修改。 父主题: 大数据数据迁移
Hive校验结果中的源端数据和目的端数据显示为“0”或“-1” 问题描述 对Hive进行大数据校验,校验任务执行成功,查看校验结果,发现部分字段的“源端数据”和“目的端数据”显示为“0”或“-1”。 问题分析 出现该问题可能是因为数值超出了Hive支持的数值范围。 在数据处理中,
条件。 分区上限:用于限制查询或处理的分区数量,避免不必要的全表扫描或处理大量不需要的数据。默认为3,取值范围:1~50。 例如,设置分区上限为3,系统只处理降序排序后分区列表中的前3个分区。 单SQL字段上限:每条SQL查询的表的字段上限。单SQL查询的字段数越多,执行时间越长
条件。 分区上限:用于限制查询或处理的分区数量,避免不必要的全表扫描或处理大量不需要的数据。默认为3,取值范围:1~50。 例如,设置分区上限为3,系统只处理降序排序后分区列表中的前3个分区。 单SQL字段上限:每条SQL查询的表的字段上限。单SQL查询的字段数越多,执行时间越长
列表文件行数不超过10000 文件存储服务地址 输入源端文件系统的挂载地址。 存储类型为NAS_GFS时,文件存储服务地址可以填写主机名、域名、可选的子域、灵活的端口号和路径表示。 存储类型为NAS_NFS_V3_PROTOCOL和NAS_NFS_V3_MOUNT时,格式为: IP地址:/ IP地址:/