检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Protocal)文件中,最终将行协议文件数据解析并迁移至目标端。 整个迁移过程分为导出和导入阶段两个阶段。 导出阶段会并发解析社区版InfluxDB的tsm文件,并将解析数据写入到内存中。 导入阶段会将读取数据发送至GeminiDB Influx集群。 迁移工具支持自定义迁移时间范围,可在工具运行时指定。
MongoDB连接迁移失败时如何处理? 问题描述 MongoDB连接迁移失败时如何处理? 解决方案 在默认情况下,userAdmin角色只具备对角色和用户的管理,不具备对库的读和写权限。 当用户选择MongoDB连接迁移失败时,用户需查看MongoDB连接中用户的权限信息,确保对指定库具备ReadWrite权限。
适合通过专线网络,实现其他云下自建数据库与云上数据库迁移、或云上跨区域的数据库之间的迁移。 用户需要通过专线网络建立云与数据中心的专线连接。 云专线相关操作,请参见《云专线快速入门》。 公网网络 适合将其他云下或其他平台的数据库迁移到目标数据库。 为了确保源数据库和目标数据库之间的网络互通,源数据库端和目标数据库端分别需要进行如下设置:
Elasticsearch数据迁移 Elasticsearch集群数据迁移方案介绍 通过华为云Logstash实现Elasticsearch集群间数据迁移 通过备份与恢复实现华为云Elasticsearch集群间数据迁移 通过S3插件备份与恢复迁移自建Elasticsearch集群至华为云
pic01的迁移将失败。 元数据 上传元数据。 单击“确定”。 迁移完成后,在迁移任务列表页面查看“任务状态”。 当“任务状态”为“迁移完成”,表示所有元数据都已成功迁移。 当“任务状态”为“迁移失败”,表示元数据中部分或全部元数据迁移失败。单击迁移任务名称,进入迁移任务详情页,
迁移实例数据 DCS数据迁移概述 迁移方案说明 DCS实例间迁移 自建Redis迁移至DCS 其他云厂商Redis迁移至DCS
OBS数据迁移到DLI服务 操作场景 数据湖探索(Data Lake Insight,简称DLI)提供大数据查询服务,本章节介绍使用CDM将OBS的数据迁移到DLI,使用流程如下: 创建CDM集群 创建DLI连接 创建OBS连接 创建迁移作业 前提条件 已经开通了OBS和DLI,并且当前用户拥有OBS的读取权限。
迁移准备 本小节介绍通过数据复制服务进行备份迁移前的准备工作。在正式使用数据复制服务之前,请先阅读以确保您已完成创建备份迁移任务所需的各项准备工作。 备份文件准备 请参见《数据复制服务备份迁移》中各方案下的“使用须知”章节。 数据库恢复模式设置 仅进行全量备份迁移时,对数据库的恢复模式没有要求。
CDM有两种迁移方式,支持的数据源有所不同: 表/文件迁移:适用于数据入湖和数据上云场景下,表或文件级别的数据迁移,请参见表/文件迁移支持的数据源类型。 整库迁移:适用于数据入湖和数据上云场景下,离线或自建数据库整体迁移场景,请参见整库迁移支持的数据源类型。 支持的数据源 新建连接
增量迁移失败报错,关键词“Command failed with error *** (***):***. The full response is {***}” 场景描述 MongoDB->DDS实时迁移场景,增量迁移报错,日志提示信息:service INCREMENT failed
云数据迁移-成长地图 | 华为云 云数据迁移 云数据迁移(Cloud Data Migration,简称CDM),是一种高效、易用的批量数据迁移服务。 CDM围绕大数据迁移上云和智能数据湖解决方案,提供了简单易用的迁移能力和多种数据源到数据湖的集成能力,降低了客户数据源迁移和集成
介绍DDS的常用连接方式。 其他云MongoDB迁移到DDS 介绍DDS数据迁移的操作。 本地MongoDB迁移到DDS ECS自建MongoDB迁移DDS 如何实现副本集高可用和读写分离 介绍如何连接副本集实例以实现高可用性能。 通过设置数据分片提升性能 介绍如何设置集群分片来提高数据库性能。 如何通过SQL优化来提升DDS性能
删除服务器 设置迁移速率 公共配置 创建迁移参数模板 创建虚拟机配置模板 02 入门 通过一个完整的流程,向您介绍如何快速上手使用主机迁移服务。 入门指导 主机迁移服务使用流程 迁移前准备工作 安装Windows版的SMS-Agent 安装Linux版的SMS-Agent 设置迁移目的端 开始服务器复制
记录数据迁移入库时间 CDM在创建表/文件迁移的作业,支持连接器源端为关系型数据库时,在表字段映射中使用时间宏变量增加入库时间字段,用以记录关系型数据库的入库时间等用途。 前提条件 已创建连接器源端为关系型数据库,以及目的端数据连接。 目的端数据表中已有时间日期字段或时间戳字段。
配置MongoDB/DDS源端参数 从MongoDB、DDS迁移数据时,CDM会读取集合的首行数据作为字段列表样例,如果首行数据未包含该集合的所有字段,用户需要自己手工添加字段。 作业中源连接为MongoDB连接时,即从本地MongoDB或DDS导出数据时,源端作业参数如表1所示。
主机迁移服务是否支持迁移自建的数据库、大数据以及网站等服务 主机迁移服务是整机迁移,不建议用于迁移数据库、大数据及容器等集群。 如果涉及以上自建服务集群的迁移,主机迁移服务无法保障迁移周期,并且在割接之前需要先暂停服务(源端迁移Agent不能中途退出),否则会出现目的端主机启动时
储中。 图1 Hive数据迁移示意 方案优势 场景化迁移通过迁移快照数据然后再恢复表数据的方法,能大大提升迁移效率。 约束与限制 搬迁数据量较大时,对网络通信要求较高,执行搬迁任务时,可能会影响其他业务,建议在业务空闲期进行数据迁移任务。 迁移Hive数据 登录CDM管理控制台。
作业配置添加字段,MongoDB字段映射存在问题 问题描述 CDM作业配置源端MongoDB添加字段,目的端MongoDB数据库字段映射,作业运行后,目的端数据库查看,数据存在问题,没有迁移成功。 故障分析 查看文档提示CDM通过获取样值的方式无法获得所有列。 添加字段,因为Mo
MongoDB采集器(app-discovery-mongodb) 采集MongoDB服务信息,获取客户端连接信息。参数配置说明参见表1。 表1 MongoDB采集器参数配置说明 参数 必选 配置说明 output_path 否 自定义采集结果(app-discovery-mongodb-xxx
使用公网迁移 背景说明 用户可以将本地NAS存储中的数据,通过公网迁移至云上SFS Turbo中,进行云上业务拓展。 此方案通过在云上和本地分别创建一台Linux操作系统的服务器,将本地NAS存储中的数据迁移至云上。两台服务器端口号22的出入方向需允许访问。本地服务器用于访问本地