检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
各地域Endpoint信息请参考Endpoint对照表。 表11 阿里云云数据库ClickHouse连接参数配置说明 参数 配置说明 所属源 仅需在源端创建元数据连接。 连接名称 默认创建名称为“阿里云云数据库ClickHouse-4位随机数(字母和数字)”,也可以自定义名称。 迁移工具
型和资源总用量(磁盘容量)。Linux主机的磁盘容量可以根据源端主机磁盘的实际使用量,进行缩容,即小于源端磁盘容量。更改磁盘规格后,系统会自动判断是否进行了磁盘缩容,在主机资源配置明细列表中的“磁盘缩容”列,“是”代表已缩容;“否”代表未缩容。 系统盘容量取值范围为:40 G~1024
LVM迁移卷组,可通过卷组配置页,左上方的按钮组,选择全部迁移或暂不迁移。 LVM中的逻辑卷如果是否迁移都选择“否”,则卷组不迁移,对应的物理卷是否迁移也会全部自动切换成“否”。 配置完成后,单击“下一步:确认调整”。确认调整无误后,单击“确定”,完成目的端磁盘分区调整。 单击右下角的“下一步:目的端配置”,进入目的端配置页签。
K8S静态采集器(app-discovery-k8s) 用于采集k8s集群中的ingress,service,configMap等信息。参数配置说明参见表1。 表1 k8s静态采集器参数配置说明 参数 必填 配置说明 output_path 否 自定义采集结果(app-discovery-k8s-xxx
移过程中,假如源端没有绑定相关的存储库,则迁移服务会按需创建一个容量为源端服务器总容量1.5倍的存储库,用于辅助迁移,该存储库在迁移结束后自动删除。 有关云备份服务的收费标准,请参见CBR计费说明。 镜像服务费用 跨可用区(AZ)迁移,在迁移过程中会生成源端服务器的整机镜像,可能会产生一定的费用。
求,选择业务场景和使用场景;区域选择目的端区域,单击“确定”按钮,应用创建成功。 否 单击“确认”,采集阿里云ECS主机任务创建完成,系统自动开始资源采集。 在资源采集页面,单击任务总数后的“查看”,进入任务列表页面。可以查看任务状态和任务详情。如果任务状态为“失败”,单击操作列
单击任务名称,可以修改任务配置。 立即运行:如果需要立即运行迁移任务,可以勾选“保存后立即运行”,然后单击“保存”按钮,会在任务管理列表中生成一条元数据增量感知任务并自动开始执行迁移。 手动运行:如果需要后续手动启动迁移任务,则只需单击“保存”按钮,在任务管理列表中生成一条元数据增量感知任务。在需要启动迁移
请添加环境变量文件的绝对路径,示例:/opt/bigdata/client/bigdata_env, 如果该参数不为空,则环境变量文件在命令执行前将被自动“source” SQL文件地址 填写用于存放执行作业时生成的SQL文件的文件夹地址。您需要拥有该文件夹的读写权限。 须知: 迁移完成后,
选择存储迁移标准模板,单击“查看步骤详情”,可以查看存储迁移模板所包含的迁移阶段和步骤,以及每个阶段和步骤的详细描述。其中,步骤类型为“自动”,表示该步由系统自动完成。单击“开始配置”按钮,进行工作流配置。 根据表1,配置基础信息参数。 表1 基础信息参数说明 参数 说明 名称 用户自定义。
Hive校验的sum统计结果显示未达标 问题描述 对Hive进行大数据校验,Hive中的double字段保存的值为 1.7976931348623157E308 和 -1.7976931348623157E308 时 sum 统计结果显示未达标。 问题分析 使用spark-sql
要3~5小时。 加急解冻:适用于需要快速访问数据的情况,解冻时间可以在1~5分钟内完成,但可能涉及额外的费用。 迁移中心的存储工作流提供了自动“解冻归档数据”功能,采用加急解冻的方式完成数据恢复。 支持的区域 当前支持以下区域(Region): 华北-北京四 华北-乌兰察布一 华南-广州
请添加环境变量文件的绝对路径,示例:/opt/bigdata/client/bigdata_env, 如果该参数不为空,则环境变量文件在命令执行前将被自动“source” SQL文件地址 填写用于存放执行作业时生成的SQL文件的文件夹地址。您需要拥有该文件夹的读写权限。 须知: 迁移完成后,
Doris连接 HBase连接 ClickHouse连接 Hudi(有元数据)连接 Hudi(无元数据)连接 MaxCompute连接 阿里云云数据库ClickHouse连接 您还可以通过手动添加、导入模板等方式添加元数据库表信息,方法请参见查看元数据。 前提条件 已创建元数据连接。 操作步骤
工作流配置。单击“查看步骤详情”,可以查看存储迁移模板所包含的迁移阶段和步骤,以及每个阶段和步骤的详细描述。其中,步骤类型为“自动”,表示该步由系统自动完成。 如图3所示,根据表1,配置基础信息参数。 图3 基础信息 表1 基础信息参数说明 参数 说明 名称 用户自定义。 区域
部分表迁移失败,报错:CRC Check failed 问题描述 进行大数据数据迁移时,部分表迁移失败,报错:CRC Check failed 解决方法 通过修改DLI作业中迁移sql,将源端timestamp字段类型转成String类型,进行数据迁移。 父主题: 大数据数据迁移
大数据节点类型 用于迁移前评估 数据库(含深度采集) 采集项 说明 作用 id ID 用于迁移前评估 name 数据库名称 用于迁移前评估 connectAddress 连接地址 用于迁移前评估 dbType 数据库类型 用于迁移前评估 dbName 数据库名称 用于迁移前评估 dbVersion
息。 是 区域 选择要发现的源端云平台区域,支持多选。 是 在资源类型的下拉列表中勾选主机资源。 单击“确认”,公网采集任务创建完成,系统自动开始资源采集。 在资源采集页面,单击任务总数后的“查看”,进入任务列表页面,查看任务状态。 采集任务状态为成功后,需要进行源端迁移准备度检查,确定源端主机是否满足迁移条件。
选择主机凭证,如未提前在Edge上添加源端主机凭证,请前往Edge控制台添加,并同步至迁移中心。 单击“确认”,采集设备和凭证都绑定成功后,系统会自动开始深度采集。当深度采集列的状态为“已采集”时,代表采集完成。 父主题: 采集主机资源
GetInstanceList调试,并根据返回的错误码定位问题原因,或联系阿里云技术支持人员。 调用阿里云RDS SDK失败。 请检查所用凭证和所选区域是否正确,或检查凭证所属账号是否开通阿里云RDS服务。 调用阿里云RDS schema SDK失败。 请参考阿里云资源管理产品文档进行API Descri
选择主机凭证,如未提前在Edge上添加源端主机凭证,请前往Edge控制台添加,并同步至迁移中心。 单击“确认”,采集设备和凭证都绑定成功后,系统会自动开始深度采集。当深度采集列的状态为“已采集”时,代表采集完成。可以进行下一阶段迁移方案设计或迁移方案配置。 图2 采集完成 父主题: 简单项目