检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
工作流配额限制说明 创建主机迁移工作流 创建可用区迁移工作流 创建存储迁移工作流 创建对象存储批量迁移工作流 创建文件存储批量迁移工作流 添加阶段/步骤 父主题: 新版
工作流配额限制说明 创建主机迁移工作流 创建可用区迁移工作流 创建存储迁移工作流 创建对象存储批量迁移工作流 创建文件存储批量迁移工作流 添加阶段/步骤 父主题: 旧版
连接成功后,需要在MgC Agent上分别添加源端“大数据-MaxCompute”凭证、目的端“大数据-Hive Metastore”凭证和目的端“MRS执行机”凭证,认证方式分别选择“AK/SK”、“用户名/密钥”、“用户名/密码”。凭证的添加方法请参考添加资源凭证。 MaxCompute
即按数据库进行筛选,在数据库参数框中输入待迁移的数据库名称。单击“添加数据库”,可以新增数据库,最多支持同时添加10个数据库。 如果数据库中有不需要迁移的表,可以下载CSV格式的“排除表”模板,参考b.~e.在模板中添加不需要迁移的表信息,然后上传至MgC。 按表筛选 下载CSV格式的模板。
Agent的主机规格最低要求为16U32G,且可使用内存不小于8G。 前提条件 已通过关联资源或手动添加等方式获取主机资源。 已在源端内网环境安装MgC Agent,并与迁移中心连接。 已在MgC Agent上添加源端主机凭证。 操作步骤 登录迁移中心管理控制台。在左侧导航栏的项目下拉列表中选择迁移项目。
用CDN降低源端出口下载流量的费用,可以勾选此选项。在域名输入框中输入自定义域名,并选择传输协议。HTTP协议安全级别低于HTTPS协议,推荐使用HTTPS协议。 源端为阿里云OSS、腾讯云COS时,如果使用了CDN鉴权,还需要选择“鉴权类型”并输入“鉴权密钥”。 SMN消息发送配置
即按数据库进行筛选,在数据库参数框中输入待迁移的数据库名称。单击“添加数据库”,可以新增数据库,最多支持同时添加10个数据库。 如果数据库中有不需要迁移的表,可以下载CSV格式的“排除表”模板,参考b.~e.在模板中添加不需要迁移的表信息,然后上传至MgC。 按表筛选 下载CSV格式的模板。
),编辑.\tools\SecAs-1.2.29\bin\catalina.bat,配置参数。 在文件中 “@echo off”的下一行,添加如下信息: set "JAVA_OPTS=-Xms512M -Xmx1024M" 其中“-Xms512M -Xmx1024M”即为可进行配置的JVM参数。-Xms512M
例如:192.0.2.1,192.0.2.2 最多可输入3个DNS服务器地址。 域名映射配置(可选) 添加域名到IP地址的映射,用于修改/etc/hosts文件。 最多可添加500个IP地址映射。 - 流量控制 设置迁移任务在指定时段的最大流量带宽。 不勾选,则不进行流量控制
模板中目标组件类型和上游组件类型支持的类型包括HiveSQL、MaxCompute。 模板中单元格不允许存在公式,否则会导致解析失败。 模板参数填写完成并保存后,单击窗口的“添加文件”,将填写后的模板文件上传至迁移中心。 注意: 文件大小不能超过100 MB。 选择血缘模板。 单击“模板下载”,将血缘模板下载到本地。
任务名称 自定义发现任务名称。 是 任务说明 输入发现任务说明。 否 任务配置 源端 选择阿里云。 是 凭证 选择阿里云对应的凭证,如未提前添加凭证,请单击“新建凭证”,填写相应参数,校验并保存凭证。 须知: 新建凭证中的认证方式请选择“AK/SK”,并输入源端阿里云账号的AK/S
application-arguments:提交Spark应用的所需要的参数(可以为空)。 以下为特定场景下需要添加的参数配置: 如果创建的是阿里云 EMR且涉及Spark 3的Delta Lake源端统计任务,请添加如下参数: 参数名:jars 参数值:'/opt/apps/DELTALAKE/delt
-jar 之后添加JVM参数: -Xms512M -Xmx1024M 其中“-Xms512M -Xmx1024M”即为可进行配置的JVM参数。-Xms512M 表示JVM初始分配的堆内存为512M。-Xmx1024M 表示JVM最大允许分配的堆内存为1024M。可按需添加其他JVM参数。
模板中目标组件类型和上游组件类型支持的类型包括HiveSQL、MaxCompute。 模板中单元格不允许存在公式,否则会导致解析失败。 模板参数填写完成并保存后,单击窗口的“添加文件”,将填写后的模板文件上传至迁移中心。 注意: 文件大小不能超过100 MB。 选择血缘模板。 单击“模板下载”,将血缘模板下载到本地。
如何查看采集失败原因? 公网采集失败,提示:“网络连接超时”或“其他异常” 数据源采集失败,如何重新采集? 如何获取云平台凭证(AK/SK)? 如何获取添加Azure凭证所需的信息? 如何获取Azure对象存储深度采集所需凭证? 如何配置采集Azure容器资源所需权限? 转换CSV文件编码为UTF-8
连接名称 默认创建名称为“执行机类型-4位随机数(字母和数字)”,也可以自定义名称。 执行机凭证 选择执行机的登录凭证。凭证的添加方法请参考添加资源凭证中的大数据-执行机。 执行机IP 填写连接执行机的IP地址。 执行机连接端口 填写连接执行机的端口,默认为22端口。 安装目录
定义名称。 迁移中心Agent 选择在源端环境中安装的MgC Agent(原Edge)。 执行机凭证 选择执行机的登录凭证。凭证的添加方法请参考添加资源凭证中的大数据-执行机。 执行机IP 填写连接执行机的IP地址。 执行机连接端口 填写连接执行机的端口,默认为22端口。 安装目录
MongoDB采集器(app-discovery-mongodb) 采集MongoDB服务信息,获取客户端连接信息。参数配置说明参见表1。 表1 MongoDB采集器参数配置说明 参数 必选 配置说明 output_path 否 自定义采集结果(app-discovery-mongodb-xxx
例如:192.0.2.1,192.0.2.2 最多可输入3个DNS服务器地址。 域名映射配置(可选) 添加域名到IP地址的映射,用于修改/etc/hosts文件。 最多可添加500个IP地址映射。 - 流量控制 设置迁移任务在指定时段的最大流量带宽。 不勾选,则不进行流量控制
application-arguments:提交Spark应用的所需要的参数(可以为空)。 以下为特定场景下需要添加的参数配置: 如果创建的是阿里云 EMR且涉及Spark 3的Delta Lake源端统计任务,请添加如下参数: 参数名:jars 参数值:'/opt/apps/DELTALAKE/delt