检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
hadoop-m* hadoop-y* zookeeper-* hbase-* hadoop-h* 进入集群HBase客户端的lib目录,执行如下命令,复制新包并存放到指定目录。请根据实际情况替换xxxx@xxx.xx.xx.xx为MgC Agent所在主机的用户名和IP地址。 scp hadoop-c*
K8s接口采集信息:MgC Agent通过Kubernetes(K8s)API接口与容器集群交互,采集容器集群的详细信息,包括容器的详细规格、节点配置、持久卷配置以及网络策略等。 信息上报给迁移中心:MgC Agent将采集到的信息上报给迁移中心。 迁移中心解析并保存信息:迁移
如果返回结果中Policy参数值有配置信息,请拷贝策略信息并保存,用于数据迁移完成后恢复到此策略。 在安装s3cmd工具的服务器上,打开文本编辑器,创建一个xxx.json文件(名称自定义),其中包含S3存储桶策略,允许从指定的S3存储桶中获取对象。将以下内容复制并粘贴到编辑器中,替换 <BUCKET-NAME>
选择集群使用场景。 当前仅支持存储迁移场景。 节点创建 Master节点ECS规格 用于管理迁移节点和列举节点。 节点数量为1,无法修改。 迁移节点ECS规格 迁移节点用于执行迁移和对比的动作,推荐规格8U16G。 规格选定后,后续无法更改。 设置的节点数量需要同时满足如下要求: 迁移节点数+列举节点数+1
如数据库、流媒体、消息服务器、推理等(C3),华为云对应规格:C7等,默认值为20%。 说明: 持续高性能、成本和性能平衡、成本优先的比例相加为100%。 高性能比CPU比例 如微服务、Web和应用服务器、BI等(N2), 华为云对应规格:aC7等,默认值为20%。 说明: 持续高性能、
创建高性能文件系统。。 步骤一:创建迁移集群 迁移集群是专为存储工作流提供协作的核心组件,通过集群可以创建和管理迁移节点、列举节点,部署和升级迁移插件,确保存储工作流顺利运行。为本次迁移创建独立的迁移集群,方法请参见创建集群。 步骤二:创建文件存储迁移方案 将源端需要迁移到同一目
在集群列表中,单击操作列的“管理”,右侧弹出集群详细信息页面。 在节点信息区域,单击“新增节点>迁移节点”,弹出添加节点页面。 根据实际需求,选择节点的ECS规格,并输入需要增加的节点数量,节点数量需要同时满足如下要求: 迁移节点数+列举节点数+1 ≤100 迁移节点数+列举节点数+1 ≤子网可用IP数
在集群列表中,单击操作列的“管理”,右侧弹出集群详细信息页面。 在节点信息区域,单击“新增节点>迁移节点”,弹出添加节点页面。 根据实际需求,选择节点的ECS规格,并输入需要增加的节点数量,节点数量需要同时满足如下要求: 迁移节点数+列举节点数+1 ≤100 迁移节点数+列举节点数+1 ≤子网可用IP数
中。 权限要求 请确保添加的目的端凭证最少拥有日志桶的如下操作权限: obs:object:PutObject:PUT上传、POST上传、复制对象、追加写对象、初始化上传段任务、上传段、合并段 obs:bucket:ListAllMyBuckets:获取桶列表 obs:bucket:ListBucket:列举桶内对象
配置完成后,单击“确认”按钮,系统会校验配置信息的正确性并自动执行“迁移预检查”,包括:校验MgC Agent与源端的连通性,校验凭证的有效性,并自动对主机规格基础信息进行补充性采集。检查时长大概需要10秒钟。 由于迁移工作流是以应用为基本单位,迁移应用下的所有资源,因此需要将待迁移资源关联到应用
执行脚本后报错:连接到远程服务器失败,且登录凭证信息正确 问题现象 执行脚本后报错,错误信息为“[ERROR] Failed to update hosts on xxx.xxx.x.xx: [xxx.xxx.x.xx] 连接到远程服务器 xxx.xxx.x.xx 失败有关详细信息,请参阅
进行深度采集。 创建主机迁移工作流:进行主机迁移,MgC提供高灵活、可定制的迁移工作流,根据采集的源端主机性能数据,推荐最合适的华为云主机规格。 创建大数据迁移任务:进行大数据迁移,支持将阿里云 MaxCompute数据迁移至华为云 数据湖探索(DLI)。 创建大数据校验任务:对大数据进行一致性校验。
INIT_SLICE_UPLOAD_FAILED 初始化分段报错。 重试失败对象,此类错误通常是网络原因导致。 MIGRATION_SYM_LINK_FAILED OBS不支持源端类型的软链接。 无,OBS兼容问题。 CREATE_LINK_FAILED 创建链接文件失败。 请排查是
选择“NAS_NFS_V3_MOUNT” - 文件存储服务地址 输入目的端文件系统的挂载地址。挂载地址可以在文件系统列表页面,单击挂载地址后面的图标复制获取。 - 路径 输入目的端接收文件的路径,格式为:/文件夹。 当输入的是/时,表示迁移到目的端的根目录。 根据表4,进行迁移配置。 表4
vpc:DescribeRouteTableList List DNS alidns:DescribeDomainRecords Read alidns:DescribeDomains Read Private Zone pvtz:DescribeZoneVpcTree Read p
列表文件约束与限制: 列表文件类型必须为.txt,其他文件类型不做处理,并且该文件元数据中的“ContentType”只能为:“text/plain”。 txt文件行数不超过100000行。 单个列表文件大小不能超过300 MB。 列表文件存放目录下的列表文件个数不能超过10000个。
auth参数值为“2”或“3”时,填写Kafka登录用户名。 auth 是 Kafka认证方式。 0表示无认证 1表示PLAINTEXT认证 2表示SASL_PLAINTEXT认证 3表示SASL_SSL认证 endpoint 是 填写Kafka连接地址。例如:127.0.0.1:9092
所有资源的目的端配置完成后,单击“下一步”,进行集群评估。集群评估为可选操作,您可以跳过该步骤,直接绑定已有集群,也可以通过评估,获取集群规格推荐后,去创建集群。集群的创建方法请参考创建集群。 单击“下一步”,进入集群配置,绑定已有迁移集群,本方案下所有资源将通过此集群迁移。 单击“立即绑定”,右侧弹出集群选择窗口。
所有资源的目的端配置完成后,单击“下一步”,进行集群评估。集群评估为可选操作,您可以跳过该步骤,直接绑定已有集群,也可以通过评估,获取集群规格推荐后,去创建集群。集群的创建方法请参考创建集群。 单击“下一步”,进入集群配置,绑定已有迁移集群,本方案下所有资源将通过此集群迁移。 单击“立即绑定”,右侧弹出集群选择窗口。
大数据数据迁移 数据迁移失败,提示超过DLI网管流控上限 部分表迁移失败,报错:CRC Check failed 部分表迁移失败,报错:no more field nodes for for field %s and vector %s