已找到以下 283 条记录
AI智能搜索
产品选择
迁移中心 MGC
没有找到结果,请重新输入
产品选择
迁移中心 MGC
在搜索结果页开启AI智能搜索
开启
产品选择
没有找到结果,请重新输入
  • 采集AWS容器资源 - 迁移中心 MGC

    解析数据:MgC将返回的数据进行解析,提取关键信息,如节点数、虚拟机核数等。然后将这些关键信息保存到数据库中,为后续分析和迁移提供支持。 深度采集原理 MgC对AWS 容器资源进行深度采集的原理图,如图2所示。 图2 AWS容器深度采集原理图 对AWS容器资源进行深度采集的过程详细说明如下:

  • 本地发现与采集 - 迁移中心 MGC

    如果后续需要对主机进行迁移,建议对主机进行深度采集。 为确保采集过程具备充分的系统访问权限,从而能够获取到必要的信息和数据。对主机深度采集的凭证要求如下: 对Linux主机进行深度采集时,请添加Root账号和密码作为采集凭证。 对Windows主机进行深度采集时,请添加Admi

  • 资源采集 - 迁移中心 MGC

    如何获取Azure对象存储深度采集所需凭证? 如何配置采集Azure容器资源所需权限? 转换CSV文件编码为UTF-8 Windows主机进行深度采集后磁盘信息为空或磁盘信息错误 Windows主机进行深度采集后系统镜像结果错误 导入RVTools资源任务失败 主机深度采集成功,部分采集规格信息缺失

  • 公网发现与采集 - 迁移中心 MGC

    单击“确定”,系统会自动检查凭证绑定状态。当深度采集列状态为就绪时,单击深度采集列的“采集”进行深度采集。首次深度采集完成后,可以单击采集状态列的“重新采集”按钮,进行多次深度采集。采集完成后,单击资源名称可以查看采集到的容器详情。 对象存储深度采集 通过深度采集获取对象存储资源的详细信息,

  • 公网发现与采集 - 迁移中心 MGC

    单击“确定”,系统会自动检查凭证绑定状态。当深度采集列状态为就绪时,单击深度采集列的“采集”进行深度采集。首次深度采集完成后,可以单击采集状态列的“重新采集”按钮,进行多次深度采集。采集完成后,单击资源名称可以查看采集到的容器详情。 对象存储深度采集 通过深度采集获取对象存储资源的详细信息,

  • 内网发现与采集 - 迁移中心 MGC

    为确保采集过程具备充分的系统访问权限,从而能够获取到必要的信息和数据。对主机深度采集的凭证要求如下: 对Linux主机进行深度采集时,请添加Root账号和密码作为采集凭证。 对Windows主机进行深度采集时,请添加Administrator账号和密码作为采集凭证。 创建内网采集任务

  • 内网发现与采集 - 迁移中心 MGC

    为确保采集过程具备充分的系统访问权限,从而能够获取到必要的信息和数据。对主机深度采集的凭证要求如下: 对Linux主机进行深度采集时,请添加Root账号和密码作为采集凭证。 对Windows主机进行深度采集时,请添加Administrator账号和密码作为采集凭证。 创建内网采集任务

  • 目的端主机磁盘缩容 - 迁移中心 MGC

    许您根据源端主机磁盘的实际使用量,选择磁盘容量更小、数量更少的目的端主机进行迁移。 使用须知 系统盘容量取值范围为:40 G~1024 G 数据盘容量取值范围为:10 G~32768 G 当前仅支持Linux主机磁盘缩容,需确保缩容后容量大于源端实际使用量。 跨可用区迁移场景仅支

  • 内网采集 - 迁移中心 MGC

    查看任务状态。 内网发现任务状态为成功后,即可进行主机深度采集。 在资源采集页面的资源列表,单击主机资源的资源数量,进入资源列表页面的主机页签。 单击主机采集设备列表或凭证列的“配置”,弹出配置窗口。 根据表3,配置参数。 表3 深度采集参数配置说明 参数 配置说明 类型 根据实际的主机操作系统类型选择。

  • 公网采集 - 迁移中心 MGC

    云、Azure。 本节介绍简单项目的公网采集步骤,复杂项目的公网采集步骤请参见创建公网采集任务。 通过公网采集的主机,需要迁移预检查通过或深度采集成功后,才可以创建迁移工作流。 前提条件 已在源端内网环境安装Edge工具,并与迁移中心连接。 已在Edge上添加源端主机凭证。为确保

  • 手动添加资源 - 迁移中心 MGC

    ge控制台添加,并同步至迁移中心。资源类型选择“数据库”,认证方式选择“用户名/密码”。 参数配置完成后,单击“确认”,系统会自动进行深度采集。当深度采集列的状态变为已采集,代表采集完成。单击数据库名称,进入数据库详情页面,可以查看采集到的信息。 父主题: 应用管理

  • 手动添加资源 - 迁移中心 MGC

    ge控制台添加,并同步至迁移中心。资源类型选择“数据库”,认证方式选择“用户名/密码”。 参数配置完成后,单击“确认”,系统会自动进行深度采集。当深度采集列的状态变为已采集,代表采集完成。单击数据库名称,进入数据库详情页面,可以查看采集到的信息。 父主题: 资源采集

  • 部分表迁移失败,报错:no more field nodes for for field %s and vector %s - 迁移中心 MGC

    %s and vector %s 问题描述 进行大数据数据迁移时,部分表迁移失败,报错:no more field nodes for for field %s and vector %s 解决方法 基于源端表创建临时表,使用临时表进行数据迁移。 父主题: 大数据数据迁移

  • 采集项列表 - 迁移中心 MGC

    本节为您列出各类型采集方式所包含的采集项以及用途。 网段扫描 采集项 说明 作用 ip 主机IP 用于深度采集 port 主机端口 用于深度采集 osType 系统类型 用于深度采集 name 主机名称 用于深度采集 主机(含深度采集) 采集项 说明 作用 name 主机名称 用于迁移前评估 hostName

  • 约束与限制 - 迁移中心 MGC

    0。可以在powershell命令窗口使用$host指令查看版本号。 跨AZ迁移约束与限制 使用迁移中心进行跨可用区(AZ)迁移的约束与限制参见表2。 表2 跨可用区(AZ)迁移约束与限制 类别 约束与限制 源端服务器规格 迁移过程中不会进行驱动安装,源端为XEN架构时,需要自行安装KVM驱动。

  • 存储迁移的约束与限制有哪些? - 迁移中心 MGC

    列表文件中每行使用制表符(键盘上Tab键)\t分隔URL和目的端对象名称,请勿使用空格。格式为:[URL][制表符][目的端对象名称],其中源端对象名称如果包含中文、特殊字符必须使用URL Encode对URL编码;目的端对象名称如果包含中文、特殊字符也需要使用URL Encode编码。

  • 内网采集权限与原理 - 迁移中心 MGC

    权限要求:需要使用具有最高权限的账号进行数据库采集,以确保能够访问所有必要的数据。对于不同的数据库系统,应使用以下账号: MySQL:使用root账号。 PostgreSQL:使用postgres账号。 MongoDB: 使用admin权限账号。 Oracle:使用system权限账号。

  • 调整目的端磁盘分区 - 迁移中心 MGC

    调整目的端磁盘分区 使用主机工作流进行迁移时,如果系统检测到目的端主机磁盘进行了缩容,则需要前往主机迁移服务(SMS),对该主机进行“调整磁盘分区”操作。 操作步骤 登录SMS控制台。 在左侧导航树中,单击“迁移服务器”,进入迁移服务器列表页面。 根据MgC主机工作流中的资源名称

  • Hive校验的sum统计结果显示未达标 - 迁移中心 MGC

    Hive校验的sum统计结果显示未达标 问题描述 对Hive进行大数据校验,Hive中的double字段保存的值为 1.7976931348623157E308 和 -1.7976931348623157E308 时 sum 统计结果显示未达标。 问题分析 使用spark-sql 客户端,进行sql操作,出现用同一个命令存在返回值不同的情况。

  • 存储类型介绍 - 迁移中心 MGC

    033|0.01|0.01|0.06) 深度归档存储(0.01|0.5|0.5|0.14) 七牛云Kodo 标准存储(0.098|0.01|0.01) 低频访问存储(0.06|0.1|0.1|0.03) 归档存储(0.028|0.1|0.1|0.06) 深度归档(0.012|0.5|0.5|0