检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
格评估确定迁移目的端。方法请参考规格评估。 主机规格评估完成后,可以根据实际需求,选择是否进行如下操作: 更改目的端规格:调整目的端主机规格和磁盘规格,支持磁盘缩容。 绑定目的端:根据评估结果,如果您在华为云上已有满足要求的主机,可以选择并绑定该主机作为目的端主机。 创建主机迁移
账号AK/SK保存为目的端凭证。 MgC Agent不具备自动重启功能,严禁在任务执行期间重启MgC Agent,以避免任务失败。 添加凭证 在MgC Agent上分别添加一条MaxCompute凭证(源端阿里云账号的AK/SK)和数据湖DLI凭证(目的端华为云账号的AK/SK),认证方式选择AK/SK
方法请参考导入数据表并加入表组。 分别创建源端执行机连接和目的端执行机连接,方法请参考创建执行机连接。执行机凭证分别选择步骤6.在MgC Agent侧添加的源端和目的端执行机凭证。 在MgC控制台,分别创建源端和目的端Hive统计任务并执行,方法请参考创建统计任务并执行校验。需要注意任务配置中的表组,选择步骤步骤20
创建项目完成后,参考连接迁移中心,将MgC Agent与云端MgC控制台建立连接。 连接成功后,需要在MgC Agent上分别添加源端“大数据-MaxCompute”凭证和目的端“大数据-数据湖搜索(DLI)”凭证,认证方式选择“AK/SK”。凭证的添加方法请参考添加资源凭证。 DLI侧的AK/SK获取方法请参考如何获取AK/SK。
加资源凭证中的大数据-执行机。 执行机IP 填写连接执行机的IP地址。 执行机连接端口 填写连接执行机的端口。 Spark客户端目录 填写Spark客户端的安装目录路径。 环境变量地址 填写环境变量文件(配置文件)的绝对路径,例如:/opt/bigdata/client/bigdata_env。
因此迁移前需要将 Cloudbase-Init 插件卸载。 账号余额 由于AZ迁移需要进行创建存储库、服务器云备份、整机镜像、按需创建目的端等操作,因此迁移时需要确保账号余额充足。 父主题: 可用区迁移
证(源端阿里云账号的AK/SK)和数据湖DLI凭证(目的端华为云账号的AK/SK),认证方式选择AK/SK ,添加方法请参考添加资源凭证。 MaxCompute凭证输入源端阿里云账号的AK/SK。 数据湖DLI凭证输入目的端华为云账号的AK/SK。 创建OBS桶并上传jar包 在
加资源凭证中的大数据-执行机。 执行机IP 填写连接执行机的IP地址。 执行机连接端口 填写连接执行机的端口。 Spark客户端目录 填写Spark客户端的安装目录路径。 环境变量地址 填写环境变量文件(配置文件)的绝对路径,例如:/opt/bigdata/client/bigdata_env。
关联应用 将待迁移主机关联应用,在后续的规格评估和创建迁移工作流时,选择该应用,即可对与应用关联的所有主机进行目的端规格评估和创建迁移工作流。 如果在创建主机资源采集任务时,已经将主机资源添加到应用中,则可以直接跳过关联应用操作,进行规格评估。 操作步骤 登录迁移中心管理控制台。
每添加完一个表的信息后,使用回车键换行。 完成所有表信息的添加后,保存CSV文件的更改。 将编辑并保存好的CSV文件上传至MgC。 目的端配置 目的端连接 选择创建的目的端DLI 通用队列连接。 注意: 切勿选择DLI SQL队列。 自定义参数(可选) 根据实际需求进行配置,支持的自定义参数详
7976931348623157E308 和 -1.7976931348623157E308 时 sum 统计结果显示未达标。 问题分析 使用spark-sql 客户端,进行sql操作,出现用同一个命令存在返回值不同的情况。 这是因为在进行大数据对数的求和计算时,由于分布式计算顺序的不确定性,可能会导致计算
动的相关问题,迁移中心概不负责。 密码不一致免责声明 主机跨AZ迁移采用备份、镜像下发目的端的形式,无法保障密码的完全一致性,由源端自动重设密码应用、周期更新密码策略等原因导致迁移后目的端密码与源端不一致(AZ迁移注意事项),迁移中心概不负责。
本次迁移创建独立的迁移集群,方法请参见创建集群。 步骤二:创建文件存储迁移方案 将源端需要迁移到同一目的端区域的文件存储资源添加到同一迁移方案中,并为每个资源配置相应的目的端,然后绑定迁移集群。详细操作步骤请参考配置文件存储批量迁移方案。 步骤三:创建文件存储迁移工作流 选择迁移
Workflow.0503:SMS migration task failed 'SMS.xxxx' 问题分析 在迁移过程中,源端会和目的端服务器建立一个SSH连接用于传输数据。如果无法成功建立SSH连接,则会导致迁移失败。 解决方法 单击任务详情,进入SMS任务详情页面。 查看
SK)。获取方法请参考准备工作。 创建应用迁移项目 在MgC控制台为本次迁移创建独立的项目,方法请参见项目管理。 创建弹性文件系统 在目的端创建相应的弹性文件系统,用于迁移后的数据存储和管理,方法请参见创建弹性文件系统。 父主题: SFS1.0迁移至SFS 3.0
配置对端网关。需要创建主、备两个对端网关。 在左侧导航树选择“虚拟专用网络 > 企业版-对端网关”。 单击“创建对端网关”,根据界面提示配置参数。其,标识选择IP Address,并填写阿里云侧网关的公网IP。 配置完成后,单击“立即创建”。 配置VPN连接。创建两条VPN连接,分别连接华为云VPN网关和阿里云对端网关。
和分析。设置了日志桶后,会默认使用大数据校验中的日志上传功能,将日志数据和内容校验结果上传到指定的OBS桶中。 权限要求 请确保添加的目的端凭证最少拥有日志桶的如下操作权限: obs:object:PutObject:PUT上传、POST上传、复制对象、追加写对象、初始化上传段任务、上传段、合并段
出现该问题,可能的原因有: 目的端区域没有与源端匹配的规格。 创建评估时,配置了自定义评估策略,没有匹配到符合策略的主机规格。 解决方法 在迁移方案设计页面的应用列表,单击操作列的“查看资源配置”,进入目的端配置表页面。 在资源配置明细区域,单击主机资源操作列的“更改目的端规格”,右侧弹出资源详情窗口。
加资源凭证中的大数据-执行机。 执行机IP 填写连接执行机的IP地址。 执行机连接端口 填写连接执行机的端口。 Spark客户端目录 填写Spark客户端的安装目录路径。 环境变量地址 填写环境变量文件(配置文件)的绝对路径,例如:/opt/bigdata/client/bigdata_env。
每添加完一个表的信息后,使用回车键换行。 完成所有表信息的添加后,保存CSV文件的更改。 将编辑并保存好的CSV文件上传至MgC。 目的端配置 目的端连接 选择创建的目的端DLI 通用队列连接。 注意: 切勿选择DLI SQL队列。 自定义参数(可选) 根据实际需求进行配置,支持的自定义参数详