检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
证。凭证的添加方法请参考添加资源凭证中的大数据-ClickHouse。认证方式选择“用户名/密码”,填写在CloudTable服务创建的目的端ClickHouse集群的登录用户名和密码。 数据库链接 填写连接到CloudTable(ClickHouse)的数据库链接地址。可以在C
ClickHouse凭证和目的端MRS ClickHouse凭证,类型选择“大数据-ClickHouse”,认证方式选择“用户名/密码”。凭证的添加方法请参考添加资源凭证。 阿里云EMR ClickHouse的凭证填写登录EMR ClickHouse Server的用户名和密码。您可以在EMR控制台Cli
至迁移中心。仅Delta Lake(有元数据)支持创建数据湖元数据同步任务。 Delta Lake(无元数据)只能通过手动添加、导入模板等方式添加元数据库表信息,方法请参见查看元数据。 前提条件 已创建Delta Lake(有元数据)元数据连接。 操作步骤 登录迁移中心管理控制台。
ClickHouse”。 统计方式仅支持“全量校验”。 创建CloudTable(ClickHouse)统计任务并执行,方法请参考创建统计任务并执行校验。需要注意任务配置中的表组,选择步骤16.创建的表组。 任务类型请选择大数据组件中的“CloudTable(ClickHouse)”。 统计方式仅支持“全量校验”。
ClickHouse”。 统计方式仅支持“全量校验”。 创建MRS ClickHouse统计任务并执行,方法请参考创建统计任务并执行校验。需要注意任务配置中的表组,选择步骤16.创建的表组。 任务类型请选择大数据组件中的“ClickHouse”。 统计方式仅支持“全量校验”。 当阿里云云数据库
服务、被依赖服务列表。 单击操作列的“更多>删除”,可以删除该微服务。 导出应用关联信息 在应用发现页面,单击应用框中的“导出”,可以导出接入层调用链、数据库依赖表、中间件依赖表、应用关联表,用于下线分析。 父主题: 资源发现与采集(复杂项目)
数据采集架构 迁移中心(MgC)采集数据的方式主要包括以下两种: 利用Edge远程在线采集 通过调用API在线采集云平台资源 利用Edge远程在线采集 适用于公有云、私有云(如VMware、Hyper-V等虚拟化环境)以及数据中心(IDC)部署,或者以上部署方式的混合场景。迁移中心 MgC利
用情况。 过滤策略说明 过滤策略参数填写通配符规则说明和约束说明参见表6。 表6 过滤策略参数说明 参数 说明 填写规则 约束说明 黑名单 命中黑名单规则,则文件不进行迁移/一致性对比。支持精确匹配和模糊匹配。 精确匹配 全路径精确匹配,填写文件绝对路径,特殊字符用反斜杠(\)转义。
设置每次采集时间间隔,单位为s(秒),1≤取值范围≤60。 password 是 填写登录用户名对应密码。 user 是 填写拥有ClusterMonitor、ReadAnyDatabase权限的登录用户名。 endpoint 是 填写MongoDB服务的连接端点,例如:127.0.0.1:27017
dli.metaAccess.enable - 填写true。 是 spark.dli.job.agency.name 填写DLI委托权限名称。 mgc.mc2dli.data.migration.dli.file.path 填写存放migration-dli-spark-1.0
连接成功后,需要在Edge上分别添加源端MRS ClickHouse凭证和目的端MRS ClickHouse凭证,类型选择“大数据-ClickHouse”,认证方式选择“用户名/密码”。凭证的添加方法请参考添加资源凭证。 在MgC控制台左侧导航栏选择“调研 > 大数据血缘”,进入大数据血缘页面。在页面左上角的当前项目下拉列表中选择步骤2
集规则,请在默认规则文件基础上进行修改。 password 是 填写登录用户名对应的密码。 username 是 填写拥有可读权限的登录用户名。 port 是 填写Nacos的访问端口。例如:8848 ip 是 填写Nacos的访问地址。例如:http://127.0.0.1 父主题:
password 是 填写登录用户名对应的密码。 username 是 填写RabbitMQ管理插件登录用户名。 server_port 是 填写RabbitMQ服务端口。例如:5672 plugin_port 是 填写RabbitMQ管理插件端口。例如:15672 host 是 填写连接RabbitMQ的IP地址。例如:127
利用创建的源端连接和目的端连接,分别创建源端和目的端统计任务,获取源端和目的端的数据信息,以便于进行数据校验。 支持的大数据组件和统计方式说明请参见大数据校验概述。 注意事项 创建的源端统计任务和目的端统计任务的统计方式必须保持一致。 HBase安全集群任务与非安全集群任务不能同时执行。HBase安全集群需要加载认证
”按钮,弹出添加主机窗口。 根据表1,填写相应参数后,单击“确认”,系统会自动检查凭证绑定状态和进行主机采集。 表1 添加主机参数说明 参数 说明 名称 用户自定义 采集设备 选择源端注册的Edge设备。 类型 主机实际系统类型 IP 填写主机IP。 如果采集的主机与安装Edge
的大数据-执行机。 执行机IP 填写连接执行机的IP地址。 执行机连接端口 填写连接执行机的端口,默认为22端口。 安装目录 填写MRS/CDH客户端的安装目录路径。即安装客户端时,“./install.sh” 所填写的地址。 SQL文件地址 填写用于存放执行作业时生成的SQL文
用情况。 过滤策略说明 过滤策略参数填写通配符规则说明和约束说明参见表6。 表6 过滤策略参数说明 参数 说明 填写规则 约束说明 黑名单 命中黑名单规则,则文件不进行迁移/一致性对比。支持精确匹配和模糊匹配。 精确匹配 全路径精确匹配,填写文件绝对路径,特殊字符用反斜杠(\)转义。
源端资源类型 华为云资源类型 AWS EC2 ECS EBS EVS 阿里云 ECS ECS EBS EVS 部分EBS产品规格,由于计算方式差别较大,源端和华为云都忽略了IOPS以及突发性吞吐相关计费项,只比较容量以及使用时长相关计费项。 父主题: TCO任务
模板”,弹出导入应用关联模板窗口,单击“下载模板”,将导入模板下载到本地。 打开导入模板,填写模板内的参数,其中标黄的参数为必填。模板参数填写完成并保存后,单击导入窗口的“添加文件”,将填写后的模板文件上传至迁移中心。 上传成功后,单击“确认”按钮,系统自动开始采集。 您可以在任务列表页面,查看任务状态。
输入发现任务说明。 否 任务配置 源端 选择阿里云。 是 凭证 选择阿里云对应的凭证,如未提前添加凭证,请单击“新建凭证”,填写相应参数,校验并保存凭证。 须知: 新建凭证中的认证方式请选择“AK/SK”,并输入源端阿里云账号的AK/SK。该账号的AK/SK需要拥有“只读访问云服务器ECS的权