检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
在执行脚本的主机上创建一个名为“update_hosts_linux.sh”的文件,然后将以下脚本示例的内容复制到文件中。如果您已经通过SSH连接到源端Linux主机,可以直接使用vim创建和编辑脚本文件,步骤如下: 在Vim编辑器中按 i 进入插入模式。 复制并粘贴脚本代码,完成后按 Esc。 输入 :wq 保存并退出。
单击磁盘对应的目的端规格处的“更改规格”,可以修改目的端磁盘的存储类型和资源总用量(磁盘容量)。Linux主机的磁盘容量可以根据源端主机磁盘的实际使用量,进行缩容,即小于源端磁盘容量。更改磁盘规格后,系统会自动判断是否进行了磁盘缩容,在主机资源配置明细列表中的“磁盘缩容”列,“是”代表已缩容;“否”代表未缩容。
已提前创建应用,在“应用”的下拉列表中选择要关联的应用。 未提前创建应用,单击“新建应用”,弹出新建应用窗口,输入自定义的应用名称和描述;根据实际需求,选择业务场景和使用场景;区域选择目的端区域,单击“确定”按钮,应用创建成功。 否 单击“确认”,采集阿里云ECS主机任务创建完成,系统自动开始资源采集。 在
创建目的端连接 创建目的端连接是为了将源端数据写入到华为云DLI。 使用须知 元数据迁移:只需要配置一条连接到DLI SQL队列的连接。 数据迁移:需要配置两条连接,分别为连接到DLI SQL队列的连接和连接到DLI通用队列的连接。 前提条件 已完成准备工作。 操作步骤 登录迁移中心控制台。
描述:CSV文件存放路径,包含源端主机信息。 参数默认值:C:\Users\Public\target_servers.csv 修改建议:使用绝对路径,或确保相对路径是正确的。如果CSV文件路径发生变化,需要更新填写的路径。 修改示例:$csvFile = "C:\Users\u
源端Oracle 数据库监听端口。默认为1521。 服务名称/SID 源端数据库待采集的服务名。默认为ORCL。 您可以登录Oracle 数据库,使用如下命令,查看并确定需要采集的服务名称。 SELECT instance_name FROM v$instance; 凭证 选择源端数据库
限制说明 基础配置 集群名称 自定义名称。 同一账户下集群名称不可重名。 区域 选择创建集群的区域。 与目的端区域保持一致。 集群类型 选择集群使用场景。 当前仅支持存储迁移场景。 节点创建 Master节点ECS规格 用于管理迁移节点和列举节点,默认创建,无需配置。 规格与迁移节点规格一致
ack_hosts_linux.sh”的文件,然后将以下脚本示例的内容复制到文件中。如果您已经通过SSH连接到源端Linux主机,可以直接使用vim创建和编辑脚本文件,步骤如下: 在Vim编辑器中按 i 进入插入模式。 复制并粘贴脚本代码,完成后按 Esc。 输入 :wq 保存并退出。
单击“下一步”,进入集群配置,绑定已有迁移集群,本方案下所有资源将通过此集群迁移。 单击“立即绑定”,右侧弹出集群选择窗口。 在集群列表中,选择需要使用的集群,单击“确认”。如果需要对集群进行修改,请参考集群管理。 集群配置完成后,单击“确定”,迁移方案创建完成。在迁移方案配置页面的方案列表,可以查看已创建的迁移方案。
Hive校验结果中的源端数据和目的端数据显示为“0”或“-1” 问题描述 对Hive进行大数据校验,校验任务执行成功,查看校验结果,发现部分字段的“源端数据”和“目的端数据”显示为“0”或“-1”。 问题分析 出现该问题可能是因为数值超出了Hive支持的数值范围。 在数据处理中,
VPCEP-Service配置 配置项 详细配置 描述 虚拟私有云 在创建集群时的网络配置中选择。 - 服务类型 接口 - 连接审批 是 确保终端节点审核后方可使用。 端口映射 22、9002 用于集群安装和任务下发、管理。 后端资源类型 云服务器 连接Master节点所在的ECS虚拟机。 连接管理 OMS云服务的VPCEP端点
应用程序 应用名称 选择待迁移资源所关联的应用。 迁移网络配置 网络类型 选择公网迁移,要求目的端服务器配置有“弹性公网IP(EIP)”,迁移时会使用目的端EIP。 选择私网迁移,需要提前配置专线、VPN、对等连接或同VPC子网,确保源端能够通过私网访问目的端。 如果源端无法访问公网,需
创建并运行元数据同步任务 利用元数据连接,创建元数据同步任务,将源端数据库的库、表、字段信息同步至迁移中心。 支持创建元数据同步任务的连接类型如下: Hive Metastore连接 Doris连接 HBase连接 ClickHouse连接 Hudi(有元数据)连接 Hudi(无元数据)连接
创建并运行数据湖元数据同步任务 利用创建的Delta Lake元数据连接,将源端数据库的库、表、字段信息同步至迁移中心。仅Delta Lake(有元数据)支持创建数据湖元数据同步任务。 Delta Lake(无元数据)只能通过手动添加、导入模板等方式添加元数据库表信息,方法请参见查看元数据。
所有凭证非AK/SK任认证方式 选择AK/SK认证方式的凭证。 MSE配置文件无效 请检查所用凭证和所选区域是否正确。 配置文件格式不正确 使用上传正确的文件格式。 获取Nacos的accessToken失败 请检查配置信息中填写的用户名和密码是否正确。 解析Nacos鉴权信息失败