检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
容器资源需要先完成深度采集,再进行迁移方案设计。 中间件、数据库、存储等资源可直接进行迁移方案设计。支持对AWS RDS(包括MySQL、MariaDB、Aurora、PGSQL、SQLServer、Oracle)和AWS DocumentDB数据库进行深度采集,以获取数据库更详细的信息。 对象
执行机IP 填写连接执行机的IP地址。 执行机连接端口 填写连接执行机的端口,默认为22端口。 安装目录 填写MRS客户端的安装目录路径。即安装客户端时,“./install.sh” 所填写的地址。 SQL文件地址 填写用于存放执行作业时生成的SQL文件的文件夹地址。您需要拥有该文件夹的读写权限。
如果大数据集群启用了安全配置(例如Kerberos安全认证),请勾选此选项,并配置安全认证命令。配置前,需要您手动将包含认证密钥的.keytab文件上传至执行机。 keytab文件地址:输入.keytab文件在执行机的存放地址。 keytab文件用户名:输入.keytab文件对应的用户名。 执行命令 可以通过
est2.log 如果文件存储服务地址在冒号加斜杠(:/)之后还包含其他路径,配置黑、白名单时,除了填写挂载地址下的绝对路径外,还要加上文件存储服务地址:/之后的部分。 例如,文件存储服务地址为"192.1.1.1:/mgc-test",挂载地址为"/mnt/turbo",则填写
oss:DescribeMetricData List 数据库 RDS rds:DescribeDBInstances Read rds:DescribeDBInstanceAttribute Read MongoDB rds:DescribeDBInstances Read rds:DescribeDBInstanceAttribute
est2.log 如果文件存储服务地址在冒号加斜杠(:/)之后还包含其他路径,配置黑、白名单时,除了填写挂载地址下的绝对路径外,还要加上文件存储服务地址:/之后的部分。 例如,文件存储服务地址为"192.1.1.1:/mgc-test",挂载地址为"/mnt/turbo",则填写
ClickHouse凭证。 数据库链接 填写连接到CloudTable(ClickHouse)的数据库链接地址。可以在ClickHouse集群的基本信息获取,对应参数为“集群访问地址”。 创建阿里云云数据库 ClickHouse统计任务并执行,方法请参考创建统计任务并执行校验。需要注意任务配置中的表组,选择步骤16
在Edge侧添加的源端Delta Lake执行机凭证。 执行机IP 填写连接执行机的IP地址。 执行机连接端口 填写连接执行机的端口,默认为22端口。 Spark客户端目录 填写Spark客户端的bin目录的绝对路径 环境变量地址 请添加环境变量文件的绝对路径,示例:/opt/bigdata/client/bigdata_env,
免责声明 License失效声明 源端服务器的系统、应用、文件等数据迁移到目的端服务器后,服务器的SID、网卡MAC地址等信息发生改变,导致OS、应用等License失效。此类问题,迁移服务概不负责。对于Windows License可以使用华为云License服务器获取新Lic
用户名/密码 输入大数据所部署主机的登录用户名、密码;网段限制填写网段地址,可以是单个IP地址或IP地址段。 例如: 单个IP地址:192.168.10.10/32 IP地址段:192.168.52.0/24 所有IP地址:0.0.0.0/0 大数据-Hive Metastore 用户名/密钥
选择步骤4.在Edge添加的源端阿里云 ClickHouse凭证。 数据库链接 填写连接源端ClickHouse集群的外网地址。可以在集群信息页面,查看外网地址。 在元数据采集区域,单击“创建任务 > 元数据同步”按钮,右侧弹出创建任务-元数据同步窗口。 根据元数据同步任务参数配置
需要将源端和目的端所有节点的主机名和IP地址映射添加到安装Edge主机的/etc/hosts文件中,配置连接才能连接成功。 在安装Edge工具的主机上,打开/etc/hosts文件进行编辑。 在/etc/hosts文件中,为每个源端和目的端节点添加一行,格式如下: IP地址 主机名 例如,节点的IP地址是192
所使用的用户名。为了确保脚本具有足够的权限执行修改操作,通常应使用具有管理员权限的用户名,如root。 ip:该字段表示源端主机的内网IP地址。 port:该字段表示SSH服务监听的端口号。默认情况下,Linux系统使用端口22。如果源端主机的SSH服务运行在自定义端口上,请在此处指定正确的端口号。
创建并运行元数据同步任务 利用元数据连接,创建元数据同步任务,将源端数据库的库、表、字段信息同步至迁移中心。 支持创建元数据同步任务的连接类型如下: Hive Metastore连接 Doris连接 HBase连接 ClickHouse连接 Hudi(有元数据)连接 Hudi(无元数据)连接
在登录界面输入以下信息。 在IP地址栏中,输入vCenter服务器的IP地址。 在用户名栏中,填写用于连接vCenter的用户名。 在密码栏中,输入与用户名相对应的密码。 单击“登录”按钮。登录成功后,在菜单栏单击“file > Export all to Excel”。 选择保存路径,将资源导出到本地。
若某个服务器无密码,用空格代替。例如:password1, ,password2 endpoint 是 填写Eureka服务器地址,如果是集群,地址之间用逗号分隔。例如 : http://ip1:port1,http://ip2:port2 如果开启了用户认证,请在ip:por
源之间的映射关系请查看MgC主机工作流资源与SMS迁移服务器列表之间的映射关系。 将鼠标移动到主机迁移进度条,在弹窗中可以查看该主机更多迁移信息。 当迁移步骤(进度条)到达需要手动确认的步骤时,将鼠标移动到进度条,在弹窗中单击步骤状态后的“确认”,才会继续进行后续迁移步骤。 当迁
填写DNS服务器IP地址,用于追加/etc/resolv.conf文件中的nameserver参数值。多个DNS服务器地址使用英文逗号分隔,例如:192.0.2.1,192.0.2.2 最多可输入3个DNS服务器地址。 域名映射配置(可选) 添加域名到IP地址的映射,用于修改/etc/hosts文件。
在登录界面输入以下信息。 在IP地址栏中,输入vCenter服务器的IP地址。 在用户名栏中,填写用于连接vCenter的用户名。 在密码栏中,输入与用户名相对应的密码。 单击“登录”按钮。登录成功后,在菜单栏单击“file > Export all to Excel”。 选择保存路径,将资源导出到本地。
填写DNS服务器IP地址,用于追加/etc/resolv.conf文件中的nameserver参数值。多个DNS服务器地址使用英文逗号分隔,例如:192.0.2.1,192.0.2.2 最多可输入3个DNS服务器地址。 域名映射配置(可选) 添加域名到IP地址的映射,用于修改/etc/hosts文件。