检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
t(获取专属主机详情) deh:dedicatedHosts:list(查询专属主机列表) 主机绑定目的端 场景 委托对象 自定义策略名称 细粒度最小使用权限 主机绑定目的端 MgC MgC ServerBindTargetAgencyPolicy ecs:cloudServer
Agent通过RPC通信协议,调用Oracle数据库采集器,进行对源端主机采集,采集器原理是通过调用数据库指令,拼接sql等获取所需数据。 采集器采集完成后,将采集结果通过RPC通信上报给MgC Agent,MgC Agent对RPC消息处理后,通过IoTDA上报采集结果给MgC。 MgC对采集结果处理存储等。 图1
Agent控制台添加,并同步至迁移中心。 须知: 为确保采集过程具备充分的系统访问权限,从而能够获取到必要的信息和数据。对主机深度采集的凭证要求如下: 对Linux主机进行深度采集时,请添加Root账号和密码作为采集凭证。 对Windows主机进行深度采集时,请添加Administrator账号和密码作为采集凭证。
List cen:ListTransitRouterVbrAttachments List cen:ListTransitRouterVpnAttachments List cen:DescribeCenAttachedChildInstances Read cen:Descr
中心。 须知: 为确保采集过程具备充分的系统访问权限,从而能够获取到必要的信息和数据。对主机深度采集的凭证要求如下: 对Linux主机进行深度采集时,请添加Root账号和密码作为采集凭证。 对Windows主机进行深度采集时,请添加Administrator账号和密码作为采集凭证。
中心。 须知: 为确保采集过程具备充分的系统访问权限,从而能够获取到必要的信息和数据。对主机深度采集的凭证要求如下: 对Linux主机进行深度采集时,请添加Root账号和密码作为采集凭证。 对Windows主机进行深度采集时,请添加Administrator账号和密码作为采集凭证。
停止”,可以批量暂停性能数据采集。 配置目的端。您可以根据实际情况,选择配置目的端主机的方法。 绑定目的端。如果您已在华为云购买了目的端主机,可以将源端主机与目的端主机进行绑定,后续创建的迁移工作流将使用所绑定的主机作为迁移目的端。关于绑定的目的端主机要求请参见绑定目的端注意事项。 在待迁移主机列
停止”,可以批量暂停性能数据采集。 配置目的端。您可以根据实际情况,选择配置目的端主机的方法。 绑定目的端。如果您已在华为云购买了目的端主机,可以将源端主机与目的端主机进行绑定,后续创建的迁移工作流将使用所绑定的主机作为迁移目的端。关于绑定的目的端主机要求请参见绑定目的端注意事项。 在待迁移主机列
直至按照性能顺序检索完全部对标的虚拟机规格类型,如果仍无符合要求的规格,则会报错提示。 优先级设置 性能优先 推荐的目的端规格要求性能最佳。 价格优先 推荐的目的端规格在满足要求的前提下尽量节约成本。 偏好设置 虚拟机类型偏好(可选) 选择期望的目的端主机类型,支持多选。 虚拟机规格族偏好(可选)
调研采集过程是否会对源端业务产生影响? MgC采用高效的数据采集算法,确保数据采集可以在较短的时间内完成,有效避免了长时间的资源占用,最大限度减少了对源端业务的影响。 父主题: 产品咨询
Zookeeper节点IP 填写连接到目的端Zookeeper的IP地址。通常是部署Zookeeper的服务器公网IP地址或内网IP地址。 Zookeepeer连接端口 填写连接到目的端Zookeepeer的端口。默认为2181。 HBase 版本 选择目的端HBase版本。 采集资源使用信息
配置说明 所属源 选择目的端。 连接名称 默认创建名称为“Doris-4位随机数(字母和数字)”,也可以自定义名称。 Doris凭证 选择在Edge添加的目的端Doris凭证。凭证的添加方式请参考添加资源凭证,类型选择“大数据-Doris”。 数据库地址 填写目的端Doris集群部署的服务器IP地址。
创建源端云服务连接 对大数据云服务数据进行一致性校验时,需要分别与源端和目的端云服务建立连接,用于数据查询和计算。 目前支持创建源端连接的大数据云服务包括: MaxCompute 阿里云云数据库ClickHouse 操作步骤 登录迁移中心管理控制台。 在左侧导航栏选择“实施>大数
加资源凭证中的大数据-执行机。 执行机IP 填写连接执行机的IP地址。 执行机连接端口 填写连接执行机的端口。 Spark客户端目录 填写Spark客户端的安装目录路径。 环境变量地址 填写环境变量文件(配置文件)的绝对路径,例如:/opt/bigdata/client/bigdata_env。
加资源凭证中的大数据-执行机。 执行机IP 填写连接执行机的IP地址。 执行机连接端口 填写连接执行机的端口。 Spark客户端目录 填写Spark客户端的安装目录路径。 环境变量地址 填写环境变量文件(配置文件)的绝对路径,例如:/opt/bigdata/client/bigdata_env。
创建目的端云服务连接 对大数据云服务数据进行一致性校验时,需要分别与源端和目的端云服务建立连接,用于数据查询和计算。 目前支持创建目的端连接的大数据云服务包括: 数据湖探索(DLI) CloudTable(ClickHouse) CloudTable(HBase) 操作步骤 登录迁移中心管理控制台。
创建目的端云服务连接 对大数据云服务数据进行一致性校验时,需要分别与源端和目的端云服务建立连接,用于数据查询和计算。 目前支持创建目的端连接的大数据云服务包括: 数据湖探索(DLI) CloudTable(ClickHouse) CloudTable(HBase) 操作步骤 登录
迁移准备度检查失败,失败原因:下发命令到Edge失败 问题描述 对Windows主机进行迁移准备度检查时,检查失败,提示:下发命令到Edge失败。 问题分析 可能导致该问题的原因如下: 配置参数中的接入IP填写错误。 源端主机处于关机状态。 源端主机的IP或端口异常。 您可以通过查看MgC
Hive校验的sum统计结果显示未达标 问题描述 对Hive进行大数据校验,Hive中的double字段保存的值为 1.7976931348623157E308 和 -1.7976931348623157E308 时 sum 统计结果显示未达标。 问题分析 使用spark-sql 客户端,进行sql操作,出现用同一个命令存在返回值不同的情况。
迁移准备度检查失败,失败原因:主机IP或端口不可达 问题描述 对Linux主机进行迁移准备度检查时,检查失败,提示:主机IP或端口不可达。 问题分析 可能导致该问题的原因如下: 源端主机处于关机状态。 源端主机的IP或端口异常。 源端主机有防火墙、杀毒软件等安全拦截。 您可以通过查看MgC