检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
NAS到NAS迁移和割接方案 概述 适用场景:适用于NAS到NAS迁移过程中源端业务持续运行的场景。 目标:通过多次同步方案迁移增量对象数据,减少源端和目的端数据差异,确保数据迁移的准确性和业务连续性。 源端支持的类型:NAS_SMB、NAS_NFS_V3_MOUNT、NAS_N
Linux系统MySQL证书默认存放位置取决于MySQL的安装方式和版本。通常MySQL证书存放在以下位置: MySQL 5.6及以下版本:/etc/mysql/ MySQL 5.7及以上版本:/var/lib/mysql/ 如果是云数据库,请参考各云厂商数据库的说明文档: 华为云
支持规格评估的数据库类型 目前支持规格评估的数据库类型包括:MySQL、PostgreSQL、MongoDB、Oracle和SQL Server。 父主题: 规格评估
data\logs MySQL-General_log开启方法如下: 在my.ini文件的[mysqld]下,添加如下配置: log-output=FILE general_log=1 general_log_file="D:\mysqllog\mysql_general.log"
据不一致的问题。 不同存储系统对路径和文件夹长度的限制参见下表: 存储系统 路径和文件夹长度限制 OBS 文件夹和文件路径的最大长度限制均为1023个字节。 NAS 文件夹的最大长度限制为255个字节。 文件路径的最大长度限制为4096个字节。 SMB 文件夹的最大长度限制为226个字节。
实例资源清单上传后,单击云盘资源清单后的“添加文件”,将导出的阿里云ECS云盘资源清单上传。 Redis 单击资源清单后的“添加文件”,将导出的阿里云Redis实例资源清单上传。 对象存储 单击资源清单后的“添加文件”,将导出的阿里云OSS桶资源清单上传。 数据库 单击资源清单后的“添加文件”,将导出的阿里云RDS
实例资源清单上传后,单击云盘资源清单后的“添加文件”,将导出的阿里云ECS云盘资源清单上传。 Redis 单击资源清单后的“添加文件”,将导出的阿里云Redis实例资源清单上传。 对象存储 单击资源清单后的“添加文件”,将导出的阿里云OSS桶资源清单上传。 数据库 单击资源清单后的“添加文件”,将导出的阿里云RDS
文件存储批量迁移 本文介绍如何使用迁移中心(MgC)的迁移方案配置功能和文件存储批量迁移模板,以高效完成文件存储的批量迁移工作。 源端支持的类型:NAS_NFS_V3_MOUNT、NAS_NFS_V3_PROTOCOL、NAS_GFS。 目的端支持的类型:NAS_NFS_V3_MOUNT。
虚拟私有云 存储 对象存储 文件存储 腾讯云 主机 数据库 - 存储 对象存储 文件存储 Azure 主机 容器 数据库 - 存储 对象存储 文件存储 中间件 Redis Kafka 网络 弹性公网IP 路由表 安全组 公网NAT网关 虚拟私有云 负载均衡(ELB) 七牛云 存储 对象存储
OBS迁移到NAS,如果源端存在同名但大小写不同的对象,会如何处理? 从OBS到NAS的异构迁移过程中,由于OBS允许大小写不同的同名对象存在,而文件系统不允许任何形式的同名对象,因此源端OBS中大小写不同的同名对象将根据创建工作流时,迁移配置中所选的“同名覆盖方式”策略进行处理
ecs:DescribeMetricData List 存储 NAS nas:DescribeFileSystems Read OSS ListBuckets oss:ListBuckets oss:DescribeMetricData List 数据库 RDS rds:DescribeDBInstances
表2 阿里云云数据库ClickHouse连接参数配置说明 参数 配置说明 所属源 选择源端。 连接名称 默认创建名称为“阿里云云数据库ClickHouse-4位随机数(字母和数字)”,也可以自定义名称。 ClickHouse凭证 选择在Edge添加的源端阿里云云数据库ClickH
虚拟私有云 存储 对象存储 文件存储 腾讯云 主机 数据库 - 存储 对象存储 文件存储 Azure 主机 容器 数据库 - 存储 对象存储 文件存储 中间件 Redis Kafka 网络 弹性公网IP 路由表 安全组 公网NAT网关 虚拟私有云 负载均衡(ELB) 七牛云 存储 对象存储
元数据连接 根据实际需求,选择已创建的元数据连接类型。 数据库 填写需要进行元数据同步的数据库名称。 须知: 元数据连接为MaxCompute类型时,该参数为必填参数,不能为空。其他元数据连接类型,该参数为可选参数,不填则代表同步全部数据库。 并发线程数 设置采集线程并发数。默认为3,1
t/rda目录并执行,以自动化采集系统信息。 数据库采集 权限要求:需要使用具有最高权限的账号进行数据库采集,以确保能够访问所有必要的数据。对于不同的数据库系统,应使用以下账号: MySQL:使用root账号。 PostgreSQL:使用postgres账号。 MongoDB: 使用admin权限账号。
接口返回:MgC接收API调用的返回值,这些返回值通常包含丰富的资源数据。 解析数据:MgC将返回的数据进行解析,提取关键信息,如节点数、虚拟机核数等。然后将这些关键信息保存到数据库中,为后续分析和迁移提供支持。 深度采集原理 MgC对AWS 容器资源进行深度采集的原理图,如图2所示。 图2 AWS容器深度采集原理图
利用创建的Delta Lake元数据连接,将源端数据库的库、表、字段信息同步至迁移中心。仅Delta Lake(有元数据)支持创建数据湖元数据同步任务。 Delta Lake(无元数据)只能通过手动添加、导入模板等方式添加元数据库表信息,方法请参见查看元数据。 前提条件 已创建Delta
对于源端和目的端存在的同名文件,源端文件直接覆盖目的端文件。 条件覆盖 对于文件迁移:源端和目的端存在的同名文件,保留最后修改时间较新的文件;如果最后修改时间相同,比较文件大小,大小不同则源端覆盖目的端文件;如果最后修改时间和大小都相同,则跳过; 对于文件夹迁移:当文件迁移完成后再比对文件夹大写、
简单、快速创建迁移工作流,提升用户云迁移效率。 多源采集 迁移中心支持多种类的资源采集,包括:云平台、主机、数据库、容器、中间件等。并且可以对采集到的主机、数据库、存储等信息进行调研评估,为用户上云提供配置推荐和方案设计。 可视化管理 为了让用户对迁移进度一目了然,迁移中心提供
填写环境变量文件(配置文件)的绝对路径,例如:/opt/bigdata/client/bigdata_env。 SQL文件地址 填写用于存放执行作业时生成的SQL文件的文件夹地址。您需要拥有该文件夹的读写权限。 须知: 迁移完成后,您需要手动清理该路径下生成的文件夹,以释放存储空间。 表7