检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
需要通过导入数据的方式获取元数据信息。 准备工作 需要先在源端内网环境中安装用于配合数据校验的工具Edge并注册用户,方法请参见安装Linux版本的Edge工具。 操作步骤 登录迁移中心管理控制台。在总览页面,单击“创建迁移项目”。 在弹出的窗口中,自定义项目名称,仔细查看并了
例如: 单个IP地址:192.168.10.10/32 IP地址段:192.168.52.0/24 所有IP地址:0.0.0.0/0 Linux主机 用户名/密码 用户名/密钥 选择用户名和密码时,输入源端主机的登录用户名、密码。 选择用户名和密钥时,输入源端主机登录用户名、口令(密钥文件对应的密码)、上传
MongoDB采集器(app-discovery-mongodb) 采集MongoDB服务信息,获取客户端连接信息。参数配置说明参见表1。 表1 MongoDB采集器参数配置说明 参数 必选 配置说明 output_path 否 自定义采集结果(app-discovery-mongodb-xxx
Edge与迁移中心连接成功后,需要在Edge上添加源端待迁移主机凭证,凭证的添加方法请参考添加资源凭证。资源类型请根据实际情况选择“Windows主机”或“Linux主机”。 采集主机资源。 MgC提供了三种主机采集方式,您可以根据实际场景和您源端主机所在的云平台,选择适合的采集方式。 图1 采集方式
功能描述 使用场景 update_hosts_win.ps1 批量更新源端Windows主机的hosts文件。脚本会自动记录操作日志,提示异常信息,并生成操作总结。 在迁移Windows主机之前,执行此脚本以更新源端主机的hosts配置。 rollback_hosts_win.ps1
全部忽略:忽略所有非分区表,不做校验。 按更新时间过滤:只处理更新时间在校验范围内的非分区表。注意:非分区表非insert写入业务,元数据更新时间存在偏差,按更新时间过滤分区时可能遗漏分区,慎重选择该选项! 高级选项 分区筛选方式:通过“更新时间”和”创建时间“,判断分区是否属于校验范围内。 更新时间:指分区
Edge与迁移中心连接成功后,需要在Edge上添加源端待迁移主机凭证,凭证的添加方法请参考添加资源凭证。资源类型请根据实际情况选择“Windows主机”或“Linux主机”。 采集主机资源。 MgC提供了三种主机采集方式,您可以根据实际场景和您源端主机所在的云平台,选择适合的采集方式。 图1 采集方式
dows主机。 双击最新版本的Edge安装程序,开始安装,覆盖旧版本的Edge。安装完成后,前往MgC控制台,在设备列表中确认设备的版本已更新为最新版本。 父主题: 如何升级Edge至最新版本?
移中心概不负责。 密码不一致免责声明 主机跨AZ迁移采用备份、镜像下发目的端的形式,无法保障密码的完全一致性,由源端自动重设密码应用、周期更新密码策略等原因导致迁移后目的端密码与源端不一致(AZ迁移注意事项),迁移中心概不负责。
14:50(现在)的增量数据。 如果勾选“指定日期”,将只迁移指定日期内的增量数据。 分区筛选方式 根据数据的分区属性来选择和检索数据。默认为更新时间。 更新时间:筛选出最近或在特定时间段内有更新的数据。 创建时间:筛选出在特定时间窗口内创建的数据。 MaxCompute参数 非必填参数,一般为空。如有需要,
转换为字符串(STRING)格式。 元数据迁移不支持事务表(即DDL中带有transactional=true字段的表)。 由于阿里云最近更新了timestamp_ntz字段类型,目前该字段类型尚未被阿里云SDK所兼容支持,这一兼容性问题导致SDK无法识别并读取该字段,从而使该字段所在的表元数据迁移失败。
的值为“REG_DWORD 0x0”,则代表网络执行模式是“经典模式”。 如果 forceguest 的值不是“REG_DWORD 0x0”,使用以下命令设置或更新 forceguest 值: reg add "HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Control\Lsa"
工具概述 迁移工具Edge是一款用于配合迁移中心进行源端资源发现与采集的工具,同时Edge还提供了工作流模块,用于配合云端迁移工作流任务。 特性开关 Edge所包含的特性开关参见下表。 参数 说明 参数值 参数路径 config.httpclient.verifier 验证主机名
并根据返回的错误码定位问题原因,或联系阿里云技术支持人员。 凭证不存在。 请检查凭证管理中是否存在所选凭证。 凭证已过期。 在凭证管理中更新该凭证。 所有凭证非AK/SK认证方式 选择AK/SK认证方式的凭证。 MSE配置文件无效 请检查所用凭证和所选区域是否正确。 配置文件格式不正确
Kafka采集器(app-discovery-kafka) 通过连接到Kafka节点,获取Kafka节点IP、版本、消费者信息等。参数配置说明参见表1。 表1 Kafka采集器参数配置说明 参数 必选 配置说明 output_path 否 自定义采集结果(app-discovery-kafka-xxx
当集群状态为健康或者亚健康时,单击集群操作列的创建工作流,可以配置存储迁移工作流。 在集群管理界面中,您可以添加/删除节点、流量控制规则等。 升级插件版本 当集群的插件版本有更新时,可以一键升级集群插件版本。在集群列表中,单击操作列的“更多 > 升级插件版本”,即可将集群插件升级为最新版本。 删除集群 当您完成数据
参数默认值:C:\Users\Public\target_servers.csv 修改建议:使用绝对路径,或确保相对路径是正确的。如果CSV文件路径发生变化,需要更新填写的路径。 修改示例:$csvFile = "C:\Users\username\Documents\servers.csv" 配置项参
如何获取添加Azure凭证所需的信息? 在添加Azure平台资源采集凭证时,需要填写租户ID、客户端(应用)ID、订阅ID以及密钥等信息,本节介绍如何获取这些凭证信息。 获取订阅ID 登录Azure控制台,进入主页。 在搜索框中输入“订阅”,选择“订阅”服务,进入订阅页面。 在订
参数默认值:C:\Users\Public\target_servers.csv 修改建议:使用绝对路径,或确保相对路径是正确的。如果CSV文件路径发生变化,需要更新填写的路径。 修改示例:$csvFile = "C:\Users\username\Documents\servers.csv" $hostsFile
创建目的端组件连接 对大数据组件数据进行一致性校验时,需要与大数据组件建立连接,用于数据查询。 目前支持创建连接的大数据组件包括: Doris HBase ClickHouse Hive Metastore 操作步骤 登录迁移中心管理控制台。 在左侧导航栏选择“实施>大数据校验”