已找到以下 266 条记录
AI智能搜索
产品选择
迁移中心 MGC
没有找到结果,请重新输入
产品选择
迁移中心 MGC
在搜索结果页开启AI智能搜索
开启
产品选择
没有找到结果,请重新输入
  • 导入阿里云资源清单 - 迁移中心 MGC

    单击列表右上角图标,在弹出对话框中,勾选需要导出信息。 单击“确定”。系统会将实例信息输出至CSV格式文件并自动下载。 由于从阿里云导出CSV文件内容格式不满足MgC解析标准,因此需要进行如下修改: 使用文件编辑器打开下载资源清单CSV文件, 在表头行末尾,添加一个英文逗号,然后保存文件。

  • 导入阿里云资源清单 - 迁移中心 MGC

    单击列表右上角图标,在弹出对话框中,勾选需要导出信息。 单击“确定”。系统会将实例信息输出至CSV格式文件并自动下载。 由于从阿里云导出CSV文件内容格式不满足MgC解析标准,因此需要进行如下修改: 使用文件编辑器打开下载资源清单CSV文件, 在表头行末尾,添加一个英文逗号,然后保存文件。

  • 错误码描述和处理方法 - 迁移中心 MGC

    列表文件contentType属性无效,只能为text/plain 请确认列表文件文件类型是否为txt,确认其contentType元数据是否为text/plain。 OMS.01018 列表文件contentEncoding属性不为空 请检查列表文件数据,确保其contentEncoding属性为空。

  • 创建目的端连接 - 迁移中心 MGC

    在左侧导航栏选择“实施>大数据数据迁移”,进入大数据数据迁移页面。在页面左上角的当前项目下拉列表中选择在完成准备工作时所创建迁移项目。 单击页面右上角“连接管理”按钮,进入连接管理页面。 单击页面右上角“创建目的端连接”按钮,右侧弹出新增连接窗口。 连接类型选择“数据湖探索 (DLI

  • 创建统计任务并执行校验 - 迁移中心 MGC

    您关心是分区内数据最新状态或最近一段时间内数据变更,可以选择“更新时间”作为筛选条件。 创建时间:指分区被首次创建时时间戳。如果您关心是分区从创建开始到某个时间点内数据,可以选择“创建时间”作为筛选条件。 分区上限:用于限制查询或处理分区数量,避免不必要全表扫描或

  • DLI校验任务出现大量失败表 - 迁移中心 MGC

    DLI校验任务出现大量失败表 问题描述 创建并执行DLI校验任务时,出现大量失败表,查看Edge日志报错信息如下: 问题分析 出现该问题可能是因为请求已达到接口流控上限。 解决方法 请联系技术支持,提高接口流控阈值。 父主题: 大数据校验

  • 创建并运行数据湖元数据同步任务 - 迁移中心 MGC

    单击操作列查看实例”,进入任务实例管理页签。可以查看该任务运行记录,以及每条任务实例状态和采集结果。当数据湖元数据同步任务实例状态为“已完成”且采集结果有数值时,在库表清单页签可以查看采集到数据列表。 数据湖元数据采集完成后,在元数据列表单击血缘列“去采集”,可以创建血缘采集任务。

  • 数据全量迁移 - 迁移中心 MGC

    完成所有表信息添加后,保存CSV文件更改。 将编辑并保存好CSV文件上传至MgC。 目的端配置 覆盖策略 对已有表处理策略 跳过:如果目的端已经存在同名数据表,将忽略该表,不会对其进行任何操作。 重建:如果目的端已经存在同名数据表,该表及其数据将被完全删除,并根据源端定义重新创建。

  • 创建执行机连接 - 迁移中心 MGC

    创建执行机连接 执行机是获取数据任务执行单元,需要分别与源端和目的端执行机建立连接,然后执行数据统计,统计结果将用于数据校验。 以下大数据组件需要通过创建执行机连接来进行数据校验: Hive Metastore Delta Lake(有元数据) Delta Lake(无元数据) Hudi(有元数据)

  • 创建血缘采集任务 - 迁移中心 MGC

    模板参数填写完成并保存后,单击窗口“添加文件”,将填写后模板文件上传至迁移中心。 注意: 文件大小不能超过100 MB。 单击“确认”,创建血缘采集任务完成。系统自动开始进行血缘采集。 单击“查看任务”,进入血缘采集页面,可以在任务列表中查看采集任务状态。 当任务状态为“已完

  • 本地发现与采集 - 迁移中心 MGC

    发现方式选择“RVTools导入”,单击“添加文件”,选择导出到本地RVTools资源文件。 图4 导入RVTools资源 单击“确认”,将文件上传到Edge。 上传成功后,单击页面右上角查看任务”,右侧弹出任务列表页面,查看任务状态。当任务状态为已完成,在主机列表中可以查看导入主机资源。 如果后续

  • 安装Linux版本 - 迁移中心 MGC

    输入的IP:步骤8.提示端口号”,即可访问Edge用户注册页面。例如:步骤7输入IP为192.168.x.x,步骤8提示端口号为27080,则Edge访问地址为:https://192.168.x.x:27080。 如果遇到访问问题,请检查IP地址准确性以及安装EdgeLinux主机安全组入网规则配置。

  • 创建工具采集任务 - 迁移中心 MGC

    建完成。在任务列表中可以查看任务数据源采集状态。 数据源采集成功后,可以通过如下方式获取采集结果: 单击任务操作列“下载json”,将采集结果保存为json文件,用于将采集结果导入MgC进行应用关联分析,详情请参考导入工具采集结果。 单击任务操作列“下载csv”,将采集结果

  • Hive校验结果中源端数据和目的端数据显示为“0”或“-1” - 迁移中心 MGC

    Hive校验结果中源端数据和目的端数据显示为“0”或“-1” 问题描述 对Hive进行大数据校验,校验任务执行成功,查看校验结果,发现部分字段“源端数据”和“目的端数据”显示为“0”或“-1”。 问题分析 出现该问题可能是因为数值超出了Hive支持数值范围。 在数据处理中,如果遇

  • 约束与限制 - 迁移中心 MGC

    支持迁移的文件类型:普通文件、目录文件、软链接文件、硬链接文件。 注意: 文件句柄被占用或源端文件被删除,均会导致迁移失败。 不支持字符设备文件、块设备文件、套接字、管道文件等特殊文件迁移。 软链接不支持元数据迁移。

  • 线下主机迁移上云 - 迁移中心 MGC

    在资源配置明细主机页签,单击主机资源绑定目的端列“去绑定”,弹出绑定目的端窗口。 选择源端主机关联应用所在区域以及区域下项目,在所选项目下,选择要绑定目的端主机,单击“确认”。 目的端绑定成功后,该主机资源绑定目的端列状态会变为“已绑定”,单击“详情”可以查看绑定目的端规格。

  • 公网发现与采集 - 迁移中心 MGC

    单击采集任务操作列查看”,进入任务详情页面,可以查看到该任务包含采集项。 单击采集项前按钮,可以查看该采集项包含采集数据源以及各资源类型采集结果。 图5 采集结果 如果有采集失败数据源,可以将鼠标放到数据采集状态上,查看失败原因。 在采集结果列,单击资源类型后数量,可以跳转到对应的资源类型列表页面。

  • Eureka采集器(app-discovery-eureka) - 迁移中心 MGC

    Eureka采集器(app-discovery-eureka) 通过Eureka提供开发API,采集Eureka Server和Eureka Client相关信息。参数配置说明参见表1。 表1 Eureka采集器参数配置说明 参数 必选 配置说明 output_path 否

  • 资源采集常见问题和处理方法 - 迁移中心 MGC

    允许删除采集任务。 导入文件大小超出限制。 请导入10MB以内文件文件名无效。 请按规则输入文件名。 文件格式无效。 请导入正确文件格式。 新增数据源失败,导入文件不存在。 请检查导入文件是否成功,或尝试再次导入。 采集阿里云RM资源信息失败。 请参考阿里云资源管理产品文档进行API

  • 创建源端云服务连接 - 迁移中心 MGC

    创建源端云服务连接 对大数据云服务数据进行一致性校验时,需要分别与源端和目的端云服务建立连接,用于数据查询和计算。 目前支持创建源端连接数据云服务包括: MaxCompute 阿里云云数据库ClickHouse 操作步骤 登录迁移中心管理控制台。 在左侧导航栏选择“实施>大数据校验”,进入