已找到以下 269 条记录
AI智能搜索
产品选择
迁移中心 MGC
没有找到结果,请重新输入
产品选择
迁移中心 MGC
在搜索结果页开启AI智能搜索
开启
产品选择
没有找到结果,请重新输入
  • 存储工作流执行失败,列表提示“COMPARISON_ATTRIBUTE_NOT_SAME”,如何处理? - 迁移中心 MGC

    于mtime,在这种情况下,系统会报告元数据对比失败,但实际上数据迁移是成功的,您可以前往目的端确认对象是否已成功迁移。 场景二: 当源端目标端的元数据不一致时,迁移会显示执行失败。请尝试重新执行迁移。如果问题依旧,请直接联系技术支持或提交工单求助。 父主题: 存储迁移

  • 创建血缘采集任务 - 迁移中心 MGC

    上游连接名称(SourceConnectionName) 上游组件类型(SourceComponentType) 作业ID(JobId) 须知: 模板中目标组件类型上游组件类型支持的类型包括HiveSQL、MaxCompute。 模板中单元格不允许存在公式,否则会导致解析失败。 模板参数填写完成并保存后

  • 查看并导出校验结果 - 迁移中心 MGC

    列的“查看详情”,进入校验详情页面,查看该数据表的校验详细信息。 查看执行历史及状态:单击操作列的“查看历史”,可以查看该表的所有执行批次达标状态。 导出校验结果 在校验结果页面,单击“导出”按钮,弹出导出校验结果窗口。 选择需要导出的批次、表组名以及类型,单击“确认”按钮,系统开始导出校验结果。

  • 自定义参数说明 - 迁移中心 MGC

    以禁用显示。 说明: 当前仅支持运行命令ANALYZE TABLE COMPUTE statistics noscan的配置单元元存储表,直接根据数据文件计算统计信息的基于文件的数据源表。 spark.sql.shuffle.partitions 200 为连接或聚合过滤数据时使用的默认分区数。

  • 内网采集权限与原理 - 迁移中心 MGC

    采集原理:利用Java语言编写的应用程序,集成对应中间件的SDK(Software Development Kit,软件开发工具包)。通过SDK提供的方法API,与中间件进行交互,实现数据的采集。 容器采集 权限要求:需要管理员级别权限的账号导出包含必要访问凭证的文件。 采集原理:利用kspider工具进行数据采集。

  • 绑定目的端 - 迁移中心 MGC

    选择源端主机关联的应用所在区域以及区域下的项目,在所选项目下,选择要绑定的目的端主机。支持目的端磁盘缩容,即可以根据源端主机磁盘的实际使用量,选择小于源端磁盘容量少于源端磁盘数量的目的端主机。 当前仅支持Linux主机磁盘缩容,需确保缩容后容量大于源端实际使用量。 跨可用区迁移场景仅支持扩容,即使配置

  • 手动添加资源 - 迁移中心 MGC

    单击列表上方的“添加资源”按钮,弹出添加主机窗口。 图1 添加主机 根据表1,填写相应参数后,单击“确认”,系统会自动检查凭证绑定状态进行信息采集。 表1 添加主机参数说明 参数 说明 名称 用户自定义 采集设备 选择源端注册的Edge设备。 类型 主机实际系统类型 IP 填写主机IP。

  • 查看元数据 - 迁移中心 MGC

    元数据连接为Delta(有元数据)连接时,模板中的source_path参数为必填项。 元数据连接为Delta(无元数据)连接时,模板中的source_pathtarget_path参数为必填项。 模板参数填写完成并保存后,单击导入窗口的“添加文件”按钮,将填写后的模板文件上传。 上传成功后,单击“

  • 采集AWS容器资源 - 迁移中心 MGC

    丰富的资源数据。 解析数据:MgC将返回的数据进行解析,提取关键信息,如节点数、虚拟机核数等。然后将这些关键信息保存到数据库中,为后续分析迁移提供支持。 深度采集原理 MgC对AWS 容器资源进行深度采集的原理图,如图2所示。 图2 AWS容器深度采集原理图 对AWS容器资源进行深度采集的过程详细说明如下: