检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
停售,因此需要您在迁移前将主机规格从XEN规格变更为KVM规格。XEN规格停售详细介绍请参见XEN实例停止服务说明及常见问题。 迁移准备 检查主机是否为XEN规格 可以在主机的基本信息页面,通过主机规格名称来判断是否为XEN规格。当前XEN规格名称包括:C1、C2、S1、M1、E
产品咨询 迁移中心使用权限配置 MgC支持的区域 使用迁移中心进行迁移前,需要做哪些准备工作? 提示“请检查当前用户是否具有IAM权限”,如何处理? 无法签署隐私声明和使用迁移中心 如何防止采集数据泄露? 调研采集过程是否会对源端业务产生影响?
打开生成的URL列表文件(在本文示例中为test2.txt),您将看到每个文件的共享下载链接。通过浏览器尝试访问这些链接,以验证生成的URL是否有效。 如果链接无法访问,请检查文件的访问权限是否设置为可读,并重新生成链接。 根据MgC的要求,编辑URL列表文件内容,使其包含文件的共享下载链接和文件名,格式为: <SHARED-URL>
务器 ECS错误码 Vpc.0702 query privateIps error. 参数错误 请根据实际返回的Error Message检查传入的参数值是否合法。更多信息查询: 虚拟私有云 VPC错误码 父主题: 存储迁移
通远程服务器。如果可以ping通,请执行步骤2。 确认远程服务器的 WinRM 服务5985端口是否已对执行机开放。确认开放请执行步骤3。 检查远程服务器的登录凭证是否正确。确认凭证正确无误后,请执行后续步骤。 登录连接失败的远程服务器,以管理员身份打开 PowerShell。 执行如下命令,然后重新执行脚本。
需要使用DLI SQL队列连接,数据迁移需要使用DLI 通用队列连接。配置错误的队列连接类型会导致迁移任务失败,因此在配置任务时,必须仔细检查并确保任务类型与队列类型相匹配。 元数据迁移与库的数量 在进行元数据迁移时,MgC会根据识别到的源端数据库的数量,在DLI中自动创建相应的
选择在完成准备工作时与迁移中心连接成功的Edge。 源端配置 源端连接 选择创建的源端连接。 预估项目周期(天)(可选) 配置后,系统会在任务执行时检查表的生命周期。若表的生命周期在项目的预期结束时间之前终止,则忽略该表。不配置则默认迁移所有表。 MaxCompute参数 非必填参数,一般
数据站点类型为华为云OBS时选择。根据桶的实际类型选择。桶类型可以通过查看桶的基本信息获取。 appID 数据站点类型为腾讯云COS时填写。填写腾讯云APPID。 说明: 您可以在腾讯云控制台账号信息页面查看APPID。 表3 目的端信息参数说明 参数 说明 数据站点类型 选择“华为云OBS”。
根据桶的实际类型选择。桶类型可以通过查看桶的基本信息获取。 数据站点类型为华为云OBS时选择。 appID 填写腾讯云APPID。 说明: 您可以在腾讯云控制台账号信息页面查看APPID。 数据站点类型为腾讯云COS时填写 鉴权类型 鉴权类型的选择支持以下两种: 连接字符串。 存储账户名称+密钥。
创建目的端组件连接 对大数据组件数据进行一致性校验时,需要与大数据组件建立连接,用于数据查询。 目前支持创建连接的大数据组件包括: Doris HBase ClickHouse Hive Metastore 操作步骤 登录迁移中心管理控制台。 在左侧导航栏选择“实施>大数据校验”
根据桶的实际类型选择。桶类型可以通过查看桶的基本信息获取。 数据站点类型为华为云OBS时选择。 appID 填写腾讯云APPID。 说明: 您可以在腾讯云控制台账号信息页面查看APPID。 数据站点类型为腾讯云COS时填写 鉴权类型 鉴权类型的选择支持以下两种: 连接字符串。 存储账户名称+密钥。
创建目的端云服务连接 对大数据云服务数据进行一致性校验时,需要分别与源端和目的端云服务建立连接,用于数据查询和计算。 目前支持创建目的端连接的大数据云服务包括: 数据湖探索(DLI) CloudTable(ClickHouse) CloudTable(HBase) 操作步骤 登录迁移中心管理控制台。
购买资源 目的端规格配置完成后,无需切换服务,可以直接在迁移中心批量购买目的端资源。当前仅支持购买主机资源。主机迁移工作流支持自动购买主机资源,通过“购买列表”批量购买资源适用于部分主机需要重新部署的场景。通过购买列表成功购买的主机,将自动绑定为迁移目的端,可以使用主机工作流继续迁移。
http://100.93.xxx.xxx:7480/bucket01/index.html index.html 按要求编辑完所有URL链接并检查无误后,保存该URL列表文件。 步骤二:上传URL列表文件至OBS桶 登录OBS管理控制台,在左侧导航栏选择“桶列表”。 在桶列表中,单击
Lake数据,请添加如下参数: 参数名:jars 参数值:'/opt/apps/DELTALAKE/deltalake-current/spark3-delta/delta-core_2.12-*.jar,/opt/apps/DELTALAKE/deltalake-current/sp
数据采集架构 迁移中心(MgC)采集数据的方式主要包括以下两种: 利用Edge远程在线采集 通过调用API在线采集云平台资源 利用Edge远程在线采集 适用于公有云、私有云(如VMware、Hyper-V等虚拟化环境)以及数据中心(IDC)部署,或者以上部署方式的混合场景。迁移中心
创建源端组件连接 对大数据组件数据进行一致性校验时,需要与大数据组件建立连接,用于数据查询。 目前支持创建源端连接的大数据组件包括: Doris HBase ClickHouse Hive Metastore Delta Lake(有元数据) Delta Lake(无元数据) Hudi(有元数据)
采集项列表 本节为您列出各类型采集方式所包含的采集项以及用途。 网段扫描 采集项 说明 作用 ip 主机IP 用于深度采集 port 主机端口 用于深度采集 osType 系统类型 用于深度采集 name 主机名称 用于深度采集 主机(含深度采集) 采集项 说明 作用 name 主机名称
创建元数据连接 创建元数据来源类型的连接,获取源端大数据库表清单。 目前支持的连接类型,参见表1。 表1 支持的元数据连接类型 类别 连接类型 大数据组件 Hive Metastore Doris HBase ClickHouse Delta Lake(有元数据) Delta Lake(无元数据)
MRS HBase迁移至MRS HBase数据校验 本文主要介绍MRS HBase版本间数据迁移后,使用迁移中心 MgC进行数据一致性校验的步骤和方法。 准备工作 需要先在源端内网环境中安装用于配合数据校验的工具Edge并注册用户,方法请参见安装Linux版本的Edge工具。 需