检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
门户中单击“存储账户”,选择待迁移的存储账户。 在“安全性和网络”下,选择“共享访问签名” , 设置页面部分必要参数,参见表1 设置参数。其余参数请根据需求配置。 表1 设置参数 参数 设置 允许的服务 选择至少包含:Blob。 允许的资源类型 选择至少包含:容器和对象。 允许的权限
168.1.1 import 是 填写general-log日志所在路径,例如:C:\data\logs MySQL-General_log开启方法如下: 在my.ini文件的[mysqld]下,添加如下配置: log-output=FILE general_log=1 gener
当前仅支持存储迁移场景。 节点创建 Master节点ECS规格 用于管理迁移节点和列举节点,默认创建,无需配置。 规格与迁移节点规格一致 迁移节点ECS规格 迁移节点用于执行迁移和对比的动作,推荐规格为C系列规格,大小是8U16G。 规格选定后,后续无法更改。 设置的节点数量需要同时满足如下要求: 迁移节点数+列举节点数+1
步骤五:创建主机迁移工作流 当完成所有准备工作和步骤一~步骤四的操作后,即可前往迁移工作流界面,创建主机迁移工作流。 父主题: 阿里云主机迁移至华为云
说明。 优先级设置 性能优先 推荐的目的端规格要求性能最佳。 价格优先 推荐的目的端规格在满足要求的前提下尽量节约成本。 偏好设置 主机资源,可以进行以下偏好设置,推荐目的端时优先推荐满足偏好设置要求的主机。详细的推荐逻辑说明参见主机评估策略推荐逻辑说明。 虚拟机规格偏好 选择期望的目的端主机规格类型,支持多选。
选择目的端。 连接名称 默认创建名称为“DLI-4位随机数(字母和数字)”,也可以自定义名称。 DLI凭证 选择DLI云服务的凭证。凭证的添加方法请参考添加资源凭证中的大数据-DLI。如果所选凭证与登录迁移中心账号凭证相同,请勾选“所选凭证与登录迁移中心凭证相同”,系统将根据所选的区域,自动查询账号在该区域下的项目。
创建目的端统计任务时,选择目的端MRS ClickHouse或CloudTable(ClickHouse)连接。 执行时间 设置作业自动执行时间。当作业激活后,每天都会在设置的时间自动执行。 说明: 建议执行时间选择业务的低峰期。 高级选项 并发连接数:进行数据统计时,单个执行机的任务并发数。默认为3,取值范围:1~10。
择消息发送语言;选择发送消息的触发条件,支持同时勾选。 流量控制 设置迁移任务在指定时段的最大流量带宽。 不勾选,不进行流量控制。 勾选,进行流量控制。分别设置“开始时间”、“结束时间”和“限速”数值。 例如:设置开始时间08:00、结束时间12:00、限速为20 MB/s,当迁
Hudi(无元数据)连接 MaxCompute连接 阿里云云数据库ClickHouse连接 您还可以通过手动添加、导入模板等方式添加元数据库表信息,方法请参见查看元数据。 前提条件 已创建元数据连接。 操作步骤 登录迁移中心管理控制台。 在左侧导航栏选择“调研>大数据血缘”,进入大数据血缘
应用名称 选择待迁移资源所关联的应用。 迁移设置 区域 选择待迁移可用区所在Region,与创建的应用配置保持一致。 目的可用区 选择要迁移到目的端可用区,与创建的应用配置保持一致。 网络设置 当前只支持“保留源端配置”。 目的虚拟机创建策略 立即创建 工作流立即开始进行源端备份
行期间重启Edge,以避免任务失败。 操作步骤 安装Edge的方法请参考下载并安装Edge。 安装成功后,将Edge与迁移中心进行连接,方法请参考连接迁移中心。 Edge与迁移中心连接成功后,添加大数据相关凭证,方法请参考添加资源凭证。 父主题: 大数据血缘
采集器离线:主机规格满足要求但采集器未运行。 解决方法 主机规格不足 请升级主机规格或选择满足规格要求的主机重新安装Edge并采集。 采集器离线 当前Edge所包含的采集器参见下表。本解决方法以主机采集器为例进行介绍,其它采集器处理方法相同。 采集器 采集资源 进程名 安装目录 rd
计费说明 在创建迁移集群时,会产生以下费用: 创建Master节点、迁移节点和列举节点会产生ECS服务费用。具体计费详情请参见ECS按需计费说明或ECS价格计算器。 如果您使用公网迁移时,会产生NAT网关服务费用。计费详情请参见NAT网关计费说明或NAT价格计算器。 启用LTS服
择消息发送语言;选择发送消息的触发条件,支持同时勾选。 流量控制 设置迁移任务在指定时段的最大流量带宽。 不勾选,不进行流量控制。 勾选,进行流量控制。分别设置“开始时间”、“结束时间”和“限速”数值。 例如:设置开始时间08:00、结束时间12:00、限速为20 MB/s,当迁
Kit,软件开发工具包)。通过SDK提供的方法和API,与中间件进行交互,实现数据的采集。 容器采集 权限要求:需要管理员级别权限的账号导出包含必要访问凭证的文件。 采集原理:利用kspider工具进行数据采集。 vCenter采集 权限要求:需要管理员账号,该账号应具备对vCenter环境中所有虚拟机的完全访问权限。
迁移选项 大表规则 设置大表条件,当符合大表的条件时,将自动按分区拆分迁移子任务。建议保持默认,也可根据实际需求修改。 小表规则 设置小表条件,当符合小表的条件时,自动将多个小表合并到一个迁移子任务中,提高迁移效率。建议保持默认,也可根据实际需求修改。 并发连接数 设置迁移并发数。默认为3,1≤取值范围≤10。
可用区迁移 可用区(AZ)迁移有哪些注意事项? 如何迁移XEN规格的主机? Windows主机迁移后数据盘缺失,如何解决? 可用区迁移错误码处理方法汇总
部分表迁移失败,报错:CRC Check failed 问题描述 进行大数据数据迁移时,部分表迁移失败,报错:CRC Check failed 解决方法 通过修改DLI作业中迁移sql,将源端timestamp字段类型转成String类型,进行数据迁移。 父主题: 大数据数据迁移
进行大数据数据迁移时,部分表迁移失败,报错:no more field nodes for for field %s and vector %s 解决方法 基于源端表创建临时表,使用临时表进行数据迁移。 父主题: 大数据数据迁移
问题描述 创建并执行DLI校验任务时,出现大量失败表,查看Edge日志报错信息如下: 问题分析 出现该问题可能是因为请求已达到接口流控上限。 解决方法 请联系技术支持,提高接口流控的阈值。 父主题: 大数据校验