检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
无,OBS兼容问题。 CREATE_LINK_FAILED 创建链接文件失败。 请排查是否需要失败的链接文件,如果需要请联系华为云技术支持。 COMBINE_OBJECT_SLICE_FAILED 合并分段文件失败。 排查目的端AKSK所属账号是否有列举分段账号权限,需要添加上以下权限后再重试工作流/任务:
安装客户端时,“./install.sh” 所填写的地址。 SQL文件地址 填写用于存放执行作业时生成的SQL文件的文件夹地址。您需要拥有该文件夹的读写权限。 须知: 校验完成后,您需要手动清理该路径下生成的文件夹,以释放存储空间。 参数配置完成后,单击“测试连接”,系统会校验配
安装客户端时,“./install.sh” 所填写的地址。 SQL文件地址 填写用于存放执行作业时生成的SQL文件的文件夹地址。您需要拥有该文件夹的读写权限。 须知: 校验完成后,您需要手动清理该路径下生成的文件夹,以释放存储空间。 参数配置完成后,单击“测试连接”,系统会校验配
前提条件 已完成准备工作。 操作步骤 在执行脚本的主机上创建一个名为“update_hosts_lwin.ps1”的文件,然后将以下脚本示例的内容复制到文件中。 # Configuration # Path to the CSV file with server information
前提条件 已完成准备工作。 操作步骤 在执行脚本的主机上创建一个名为“rollback_hosts_win.ps1”的文件,然后将以下脚本示例的内容复制到文件中。 # Configuration # Path to the CSV file with server information
环境变量地址 填写环境变量文件(配置文件)的绝对路径,例如:/opt/bigdata/client/bigdata_env。 SQL文件地址 填写用于存放执行作业时生成的SQL文件的文件夹地址。您需要拥有该文件夹的读写权限。 须知: 迁移完成后,您需要手动清理该路径下生成的文件夹,以释放存储空间。
false:不查询DLI表的分区,空分区或者分区不存在校验状态都为成功 spark.sql.files.maxRecordsPerFile 0 要写入单个文件的最大记录数。如果该值为零或为负,则没有限制。 spark.sql.autoBroadcastJoinThreshold 209715200 配置执行连接时显
false:不查询DLI表的分区,空分区或者分区不存在校验状态都为成功 spark.sql.files.maxRecordsPerFile 0 要写入单个文件的最大记录数。如果该值为零或为负,则没有限制。 spark.sql.autoBroadcastJoinThreshold 209715200 配置执行连接时显
指定日志文件和内容校验结果在日志桶内的存放文件夹,填写以“/”开头的文件夹路径。例如:桶名为“mgc01”,填写的文件夹为“/test”,则日志文件存放路径为:obs://mgc01/test/bigdata/task/日期/任务实例ID/日志文件;内容校验结果存放路径为:obs://mgc01/test/big
在手工导入页签,单击“手工导入”,弹出手工导入窗口。 图1 手工导入 选择“工具采集结果导入”,单击导入窗口的“添加文件”,将工具采集结果的json文件上传至迁移中心。 图2 添加工具采集结果文件 上传成功后,单击“确认”按钮,进入任务中心页面,系统自动开始采集。 当任务状态为“成功”时,您可以前往应用管理页面,查看导入结果。
环境变量地址 填写环境变量文件(配置文件)的绝对路径,例如:/opt/bigdata/client/bigdata_env。 SQL文件地址 填写用于存放执行作业时生成的SQL文件的文件夹地址。您需要拥有该文件夹的读写权限。 须知: 迁移完成后,您需要手动清理该路径下生成的文件夹,以释放存储空间。
对于源端和目的端存在的同名文件,源端文件直接覆盖目的端文件。 对象大小与最后修改时间覆盖 对于文件迁移:源端和目的端存在的同名文件,保留最后修改时间较新的文件;如果最后修改时间相同,比较文件大小,大小不同则源端覆盖目的端文件;如果最后修改时间和大小都相同,则跳过; 对于文件夹迁移:当文件迁移完成后
端规格一致。 图1 Linux磁盘分区调整 Linux支持LVM调整,可以选择物理卷和逻辑卷是否迁移以及调整大小。 Linux Btrfs文件系统暂时不支持磁盘分区调整。 Linux系统分区,swap分区是否迁移不可选,默认为“是”,必须进行迁移。 LVM迁移卷组,可通过卷组配置
仅支持上传UTF-8编码且为中文表头的CSV文件,单个文件大小不能超过50 MB。将CSV文件编码转换为UTF-8的方法请参考转换CSV文件编码为UTF-8。 资源类型 操作步骤 主机 单击资源清单后的“添加文件”,将导出的阿里云ECS实例资源清单上传。 实例资源清单上传后,单击云盘资源清单后的“添加文件”,将导出的阿里云ECS云盘资源清单上传。
资源类型 认证方式 说明 公有云 AK/SK 配置文件 ID/密钥 AK/SK适用于添加华为云、阿里云、AWS、腾讯云、七牛云和金山云等云平台凭证。 配置文件适用于添加谷歌云平台凭证。配置文件需要上传谷歌云服务账号凭据,该凭证必须为json格式文件,且大小不能超过4KB。 ID/密
单击“确定”。系统会将实例信息输出至CSV格式的文件并自动下载。 由于从阿里云导出的CSV文件内容格式不满足MgC解析标准,因此需要进行如下修改: 使用文件编辑器打开下载的资源清单CSV文件, 在表头行的末尾,添加一个英文逗号,然后保存文件。 例如,原始表头为: ID,Name,Quantity
单击“确定”。系统会将实例信息输出至CSV格式的文件并自动下载。 由于从阿里云导出的CSV文件内容格式不满足MgC解析标准,因此需要进行如下修改: 使用文件编辑器打开下载的资源清单CSV文件, 在表头行的末尾,添加一个英文逗号,然后保存文件。 例如,原始表头为: ID,Name,Quantity
迁移项目。 单击任务框中的“导入>工具采集结果”,弹出导入工具采集结果窗口。 图1 导入工具采集结果 单击导入窗口的“添加文件”,将工具采集结果的json文件上传至迁移中心。 上传成功后,单击“确认”按钮,系统自动开始采集。 您可以在任务列表页面,查看任务状态。 如果任务状态为“
选项,并配置安全认证命令。配置前,需要您手动将包含认证密钥的.keytab文件上传至执行机。 keytab文件地址:输入.keytab文件在执行机的存放地址。 keytab文件用户名:输入.keytab文件对应的用户名。 执行命令 可以通过设置Beeline或Spark-sql命令行参数,对数据进行处理。
对于源端和目的端存在的同名文件,源端文件直接覆盖目的端文件。 条件覆盖 对于文件迁移:源端和目的端存在的同名文件,保留最后修改时间较新的文件;如果最后修改时间相同,比较文件大小,大小不同则源端覆盖目的端文件;如果最后修改时间和大小都相同,则跳过; 对于文件夹迁移:当文件迁移完成后再比对文件夹大写、