检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
UNT,请根据实际情况选择。 - 迁移方式 选择迁移方式。 全量迁移:迁移源端文件存储服务地址+路径内的全部数据。 列表迁移:通过列表文件过滤迁移,只迁移列表文件中的对象。 - 列表路径 迁移方式选择列表迁移时,填写列表文件所在路径。迁移方式选择全量迁移时,无需填写。 列表文件需要满足如下要求:
设置迁移并发数。默认为3,1≤取值范围≤10。 单文件SQL数 每批提交的文件中所包含的SQL条数。默认为3,1≤推荐取值范围≤50。 配置完成后,选择任务的运行方式。 创建的迁移任务可重复运行,每运行一次,即会生成一条任务实例。 单击任务名称,可以修改任务配置。 立即运行:如果需要立即运行迁移任务,可
MgC:部署在云上,主要包含六个业务功能(问卷&TCO对比、在线采集、应用关联分析、在线评估、资源分组、迁移编排),通过基于服务开发服务,基于服务运维服务的方式进行设计。 MgC Agent:部署在客户的网络中,用来保存凭证等敏感资源和操作租户本地部署的资源。可以接收MgC的命令和上报命令执行结果。
源端是Linux主机时,源端主机需要满足如下条件: 需要对安装MgC Agent的主机开放22端口。 需要开放root账号的直接连接权限。即允许通过SSH等远程连接方式使用root账号登录到源端Linux主机。 需要启用SFTP和SSH服务。 需要支持以下SSH连接安全算法: ssh-ed25519、ec
设置迁移并发数。默认为3,1≤取值范围≤10。 单文件SQL数 每批提交的文件中所包含的SQL条数。默认为3,1≤推荐取值范围≤50。 配置完成后,选择任务的运行方式。 创建的迁移任务可重复运行,每运行一次,即会生成一条任务实例。 单击任务名称,可以修改任务配置。 立即运行:如果需要立即运行迁移任务,可
单击“数据开发”,进入数据开发页面。 单击作业目录中的,选择“显示复选框”。 勾选需要导出的作业,单击 > 导出作业,弹出的导出作业窗口。 导出方式选择“导出到OBS”,选择作业保存目录。 “导出范围”和“导出状态”根据实际需求选择。 若待导出的作业未提交过任何版本,“导出状态”建议选
创建用户组并授权中创建的用户组。 当IAM用户首次使用MgC的特定功能时,需要通过以下两种方式授予委托权限: 推荐方式:请管理员登录MgC控制台,进入相关功能界面,同意相关委托权限。 备选方式:请管理员登录“统一身份认证服务 IAM”服务,为当前IAM用户配置创建委托所需的权限,确
创建用户组并授权中创建的用户组。 当IAM用户首次使用MgC的特定功能时,需要通过以下两种方式授予委托权限: 推荐方式:请管理员登录MgC控制台,进入相关功能界面,同意相关委托权限。 备选方式:请管理员登录“统一身份认证服务 IAM”服务,为当前IAM用户配置创建委托所需的权限,确
单击“数据开发”,进入数据开发页面。 单击作业目录中的,选择“显示复选框”。 勾选需要导出的作业,单击 > 导出作业,弹出的导出作业窗口。 导出方式选择“导出到OBS”,选择作业保存目录。 “导出范围”和“导出状态”根据实际需求选择。 若待导出的作业未提交过任何版本,“导出状态”建议选
成功授权EVS访问KMS,系统会创建默认密钥“evs/default”。 自定义密钥: 即您已有的密钥或者新创建密钥,创建方式请参见创建密钥。 输入KMS密钥ID 输入来自其他用户的共享密钥ID,请确保密钥位于目的端区域。共享方式请参见创建密钥授权。 须知: 该功能不适用于已绑定目的端的主机。 启用该功能后,会对同
行校验。需要注意任务配置中的表组,选择步骤步骤20.创建的表组。 任务类型请选择大数据组件中的“Doris”。 统计方式按实际需求选择,各统计方式说明请参见校验方式说明。 当任务执行完成后(实例状态为“已完成”),在校验结果页面可以查看并导出任务的执行结果,方法请参考查看并导出校验结果。
auth参数值为“1”时,填写Redis访问密码。 mode 是 填写Redis部署模式。 0表示单机 1表示集群 auth 是 Redis认证方式。 0表示无认证 1表示密码认证 port 是 填写Redis端口。 host 是 填写Redis节点IP地址。 父主题: 采集器参数配置说明
填写登录用户名对应的密码。 username 否 auth参数值为“2”或“3”时,填写Kafka登录用户名。 auth 是 Kafka认证方式。 0表示无认证 1表示PLAINTEXT认证 2表示SASL_PLAINTEXT认证 3表示SASL_SSL认证 endpoint 是 填写Kafka连接地址。例如:127
数据采集 迁移中心为了确保采集数据的安全性,采集数据时只会读取源端数据,不会对源端数据进行修改。并提供了“导入本地文件”与“在线采集”两种采集方式。 数据传输 迁移中心为了确保数据传输安全,采用加密通道(HTTPS、SSH)进行数据传输。 凭证加密 在线采集时,采集凭证会加密存储在M
并发子任务数 - 用户自定义。配置的数目不能超过可用迁移节点数x10。例如:可用的迁移节点数为2,则最大子任务数配置数目需要≤20。 同名覆盖方式 不覆盖 对于源端和目的端存在的同名文件,跳过源端文件,保留目的端文件。 警告: 首次迁移时选择“不覆盖”,不会迁移源端中父文件夹的属性到
)凭证 选择CloudTable(ClickHouse)集群的凭证。凭证的添加方法请参考添加资源凭证中的大数据-ClickHouse。认证方式选择“用户名/密码”,填写在CloudTable服务创建的目的端ClickHouse集群的登录用户名和密码。 数据库链接 填写连接到Clo
bat,其中rda-collector-server可替换其他采集器的目录,目前包含采集器: 数据库采集器 :rda-collector-database。 容器采集器 :rda-collector-kubernetes。 平台采集器 :rda-collector-platform。 主机采集器
并发子任务数 - 用户自定义。配置的数目不能超过可用迁移节点数x10。例如:可用的迁移节点数为2,则最大子任务数配置数目需要≤20。 同名覆盖方式 不覆盖 对于源端和目的端存在的同名文件,跳过源端文件,保留目的端文件。 警告: 首次迁移时选择“不覆盖”,不会迁移源端中父文件夹的属性到
迁移工作流以进行增量迁移。需要注意在配置工作流的迁移配置区域,同名覆盖方式选择“条件覆盖”,其余参数配置与步骤一创建的工作流保持一致。配置完成后,启动新的存储迁移工作流,开始增量迁移。 图1 选择同名覆盖方式 步骤三:灰度切流(可选) 待首次增量迁移完成后,如果有条件,在目的端进行灰度切流验证业务。
行校验。需要注意任务配置中的表组,选择步骤步骤20.创建的表组。 任务类型请选择大数据组件中的“HBase”。 统计方式按实际需求选择,各统计方式说明请参见校验方式说明。 当任务执行完成后(实例状态为“已完成”),在校验结果页面可以查看并导出任务的执行结果,方法请参考查看并导出校验结果。