检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
通过集群可以创建和管理迁移节点、列举节点,部署和升级迁移插件,确保存储工作流顺利运行。 使用须知 单个账号在每个区域(Region)最多只能创建2个集群。 为了保证迁移的稳定性和数据安全,创建的迁移集群不支持用户自行登录。如您有特殊需求必须登录,请联系技术支持人员。 当集群超过
ClickHouse连接 ClickHouse、阿里云云数据库ClickHouse和CloudTable(Clickhouse)组件配置参数。 创建源端统计任务时,选择源端MRS ClickHouse连接或阿里云云数据库ClickHouse连接。 创建目的端统计任务时,选择目的端MRS
在元数据采集区域,单击“采集任务”,进入元数据采集页面。 在任务管理页签,可以查看已创建的元数据同步任务列表以及参数配置信息。单击操作列的“运行任务”,即可触发一次任务执行。每执行一次任务,会生成一条任务实例。 单击操作列的“查看实例”,进入任务实例管理页签。可以查看该任务的运行记录,以及每条任务实例的状态和采
在元数据采集区域,单击“采集任务”,进入元数据采集页面。 在任务管理页签,可以查看已创建的元数据同步任务列表以及参数配置信息。单击操作列的“运行任务”,即可触发一次任务执行。每执行一次任务,会生成一条任务实例。 单击操作列的“查看实例”,进入任务实例管理页签。可以查看该任务的运行记录,以及每条任务实例的状态和采
约束与限制 多版本对象迁移 默认只迁移源端多版本对象中的最新版本,不支持迁移历史版本的对象存储数据。 目的端桶存储类别 目的端桶的存储类别只能为标准存储或者低频访问存储。迁移完成后,可以自行修改桶的存储类别。 迁移对象 对象名称不能包含特殊字符。 单个对象大小不能超过:500 MB
将源端待迁移的文件URL和对象名称写入列表文件(每行只能写一个URL和对象名称),列表文件需要提前创建。 列表文件约束与限制: 列表文件类型必须为.txt,其他文件类型不做处理,并且该文件元数据中的“ContentType”只能为:“text/plain”。 txt文件行数不超过100000行。
将源端待迁移的文件URL和对象名称写入列表文件(每行只能写一个URL和对象名称),列表文件需要提前创建。 列表文件约束与限制: 列表文件类型必须为.txt,其他文件类型不做处理,并且该文件元数据中的“ContentType”只能为:“text/plain”。 txt文件行数不超过100000行。
端口: WMI:TCP/135以及一个高位随机端口(默认:13475,建议开放:1024-65535) SMB:TCP/445。 该采集器只能采集到通过netstat命令所识别的、具有长期网络连接特性的进程之间的关联关系。 表1 Windows进程与网络采集器参数配置说明 参数 必选
表2 阿里云云数据库ClickHouse连接参数配置说明 参数 配置说明 所属源 选择源端。 连接名称 默认创建名称为“阿里云云数据库ClickHouse-4位随机数(字母和数字)”,也可以自定义名称。 ClickHouse凭证 选择在Edge添加的源端阿里云云数据库ClickH
各地域Endpoint信息请参考Endpoint对照表。 表11 阿里云云数据库ClickHouse连接参数配置说明 参数 配置说明 所属源 仅需在源端创建元数据连接。 连接名称 默认创建名称为“阿里云云数据库ClickHouse-4位随机数(字母和数字)”,也可以自定义名称。 迁移工具
(x1.4u.8g)。 注意: 如果选择开启“忽略样本过少性能数据”,且采样的性能数据少于性能数据范围(天) x 288(采集默认5min一次,一天288次) x 50%,则不会根据性能进行调整。 高级选项设置了虚拟机规格偏好 在“虚拟机规格偏好”里选择了规格族,则根据“优先级设
创建方案时,待迁移桶列表中的资源所属的平台必须和所选的源端平台一致,且一个方案对应一个目的端区域。 一个源端桶资源可以关联多个方案。 在一个方案下,一个桶资源的目的端前缀只能有一个,但是源端前缀可以有多个。 操作步骤 登录迁移中心管理控制台。在左侧导航栏选择“设计>迁移方案配置”,进入迁移方案配置页面。 单击页
对象列表文件大小不能超过30 MB。 对象列表文件类型必须为.txt类型。 对象列表文件必须是UTF-8无BOM格式编码格式。 对象列表文件每行只能包含一个对象名称,且对象名称使用URL Encode编码。 对象列表文件行长度不超过16KB,否则迁移失败。 对象列表文件行数不超过10000行。
为每个待迁移的源端桶,创建一个对应的前缀列表文件(即一个桶对应一个前缀列表文件),前缀列表文件要求如下: 文件格式为.txt,大小不超过2 MB。 每行只能包含一个前缀,每个前缀的长度不超过1024个字符。 前缀总数(即行数)不超过1000。 使用须知 支持的区域 当前支持在以下区域(Regi
自定义参数说明 在创建数据湖探索 DLI校验任务时,支持的自定义参数及说明参见表1。 表1 DLI校验任务支持的自定义参数说明 参数名称 默认值 描述 mgc.mc2dli.table.partition.enable true DLI表分区为空或者分区不存在时需要通过查询DLI的元数据去判断分区存不存在。
请删除迁移工作流,并前往评估推荐修改该主机的推荐磁盘类型,然后重新创建迁移工作流 AZ-Workflow.0404 源端服务器网卡数量为***,但是规格***最大只能创建***个网卡,请选用其他规格 请删除迁移工作流,并前往评估推荐修改主机的推荐磁盘类型,然后重新创建迁移工作流。 AZ-Workflow
准备工作 CSV文件准备 创建一个包含源端主机信息的CSV文件,确保文件能被访问,并且格式符合要求。格式如下: username,ip,port,password username:该字段表示登录源端主机时所使用的用户名。为了确保脚本具有足够的权限执行修改操作,通常应使用具有管理员权限的用户名,如root。
创建源端组件连接 对大数据组件数据进行一致性校验时,需要与大数据组件建立连接,用于数据查询。 目前支持创建源端连接的大数据组件包括: Doris HBase ClickHouse Hive Metastore Delta Lake(有元数据) Delta Lake(无元数据) Hudi(有元数据)
准备工作 为了确保迁移过程的顺利进行,需要完成以下必要的准备工作。 华为账号准备 使用MgC之前,您需要拥有一个华为账号或一个可用于访问MgC的IAM用户,并获取账号/IAM用户的访问密钥(AK/SK)。获取方法请参考准备工作。 阿里云访问密钥(AK/SK)准备 准备一组源端阿里云账号的Access
创建执行机连接 执行机是获取数据的任务执行单元,需要分别与源端和目的端的执行机建立连接,然后执行数据统计,统计结果将用于数据校验。 以下大数据组件需要通过创建执行机连接来进行数据校验: Hive Metastore Delta Lake(有元数据) Delta Lake(无元数据)