检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
创建分析任务 资源发现与采集 支持多种类的资源采集,包括:云平台、主机、数据库、容器、大数据、中间件等。通过对采集到的信息进行调研评估,为用户上云提供配置推荐和方案设计。 支持区域: 全部 资源发现与采集 手动添加资源 导入RVTools资源 采集主机性能 迁移中心支持对主机资源进行性能数
后单击“刷新状态”按钮,系统会自动安装采集器。在应用关联采集器页面,查看已安装的采集器列表出现新增的采集器时,代表新增采集器成功。 如果需要修改采集器配置文件,复制采集器的安装路径,打开配置文件所在目录,找到配置文件修改并保存后,单击“刷新状态”按钮,系统会自动更新采集器配置信息。
选择文件存储批量迁移模板,单击“查看步骤详情”,可以查看该模板所包含的迁移阶段和步骤,以及每个阶段和步骤的详细描述。其中,步骤类型为“自动”,表示该步由系统自动完成。单击“开始配置”按钮,进行工作流配置。 在基础信息区域,输入自定义的工作流名称和描述。 在迁移方案区域,选择创建的文件存储迁移方
axMemoryPerShellMB 1024 如果原本的配置参数值不小于1024 MB,请继续执行步骤2。 处理老旧系统版本的内存限制问题。 如果源端主机系统版本较旧(如Windows Server 2008或Windows Server 2012),WinRM服务可能不使用自
has been reached 问题分析 出现该问题,是因为您创建的资源数量已达到DLI服务流控限制阈值。 解决方法 请联系DLI服务技术支持人员,调整流控上限。 父主题: 大数据数据迁移
是 检查系统基本组件 .\checkBasicObjects.ps1 无 功能类 checkPerformanceObjects.ps1 /Edge/tools/plugins/collectors/rda-collector-server/powershell 是 检查系统性能组件
RVTools资源采集任务失败通常是因为RVTools导出的Excel文件可能存在兼容性问题或格式错误。 解决方案 将RVTools导出的Excel文件在Windows操作系统上的Excel软件中打开。 在Excel中,将原有数据复制并粘贴到一个新的Excel文件中。 保存新创建的Excel文件,确保文件格式为
在任务列表页面,单击采集任务操作列的“查看”,进入任务详情页面。 单击采集项操作列的“新增数据源”,弹出新增数据源窗口。 选择区域和资源类型,单击“确认”按钮。新增数据源成功,系统开始对新增的数据源进行采集。 单击采集项,可以查看数据源的采集状态。 父主题: 资源采集
MgC主机资源列表 SMS迁移服务器列表 字段类型 主机名 服务器名称 源端主机的hostname IP地址 源端IP 源端主机的IP 镜像 操作系统 源端主机的操作系统 - 目的端 迁移目的端ECS名称 通过工作流创建SMS迁移任务 创建主机迁移工作流完成后,在主机迁移工作流详情页面,当资源的
如何配置采集Azure容器资源所需权限? 转换CSV文件编码为UTF-8 Windows主机进行深度采集后磁盘信息为空或磁盘信息错误 Windows主机进行深度采集后系统镜像结果错误 导入RVTools资源任务失败 主机深度采集成功,部分采集规格信息缺失
集设备”或“凭证”后的“配置”,弹出配置窗口。 根据表1,配置参数。 表1 迁移准备度参数配置说明 参数 配置说明 类型 根据实际的主机操作系统类型选择。 采集设备 选择在源端环境安装的Edge工具。当资源较多时,可以同时勾选多个资源,并通过列表上方的“绑定采集设备”进行批量绑定。
大数据-Hive Metastore凭证文件获取方法 参考访问FusionInsight Manager登录Manager,进入系统页面。 在左侧导航栏,选择“权限>用户”,进入用户页面。 在用户列表,选择要在Edge添加凭证的用户,单击操作列“更多>下载认证凭据”,可以下载凭证文件中的krb5
创建并运行元数据同步任务 利用元数据连接,创建元数据同步任务,将源端数据库的库、表、字段信息同步至迁移中心。 支持创建元数据同步任务的连接类型如下: Hive Metastore连接 Doris连接 HBase连接 ClickHouse连接 Hudi(有元数据)连接 Hudi(无元数据)连接
同但对象名称相同的情况,会如何处理? OBS迁移到NAS,如果源端存在同名但大小写不同的对象,会如何处理? 关于OBS、NAS和SMB存储系统之间进行异构迁移的对象长度限制说明 如何解决迁移集群创建失败问题 如何获取微软云的访问凭证 存储工作流执行失败,列表提示“COMPARIS
前提条件 已创建迁移任务并运行。 操作步骤 在任务进度列表,单击进度统计列的“查看”,进入进度详情页面。 单击列表上方的“导出”按钮,系统开始导出任务执行结果。通过列表上方的搜索框可以对任务执行结果进行过滤,如有过滤,则只导出过滤后的数据。 图1 导出执行结果 单击“导出管理”按钮,右侧弹出导出管理窗口。
创建并运行数据湖元数据同步任务 利用创建的Delta Lake元数据连接,将源端数据库的库、表、字段信息同步至迁移中心。仅Delta Lake(有元数据)支持创建数据湖元数据同步任务。 Delta Lake(无元数据)只能通过手动添加、导入模板等方式添加元数据库表信息,方法请参见查看元数据。 前提条件
果窗口。 图1 导入工具采集结果 单击导入窗口的“添加文件”,将工具采集结果的json文件上传至迁移中心。 上传成功后,单击“确认”按钮,系统自动开始采集。 您可以在任务列表页面,查看任务状态。 如果任务状态为“失败”,单击操作列的“查看”,可以查看采集失败的数据源,将鼠标放到数
通过调用API在线采集云平台资源 适用于公有云部署场景,针对不同云服务提供商(友商)的云资源进行数据采集。使用API接口与其它云服务提供商的系统进行交互,实现数据的在线采集。不需要在源端网络中安装Edge设备。 数据采集架构图,如图2所示。 图2 调用API在线采集云平台资源架构图
在进行Azure Kubernetes Service(AKS)资源迁移前,通过MgC进行资源采集是关键步骤,它为后续迁移操作提供了必要的数据支持。本节介绍使用MgC采集AKS资源的基本原理、准备工作、账号权限要求以及具体的操作步骤,旨在帮助用户高效、准确地完成AKS资源的数据采集工作。
打开导入模板,填写模板内的参数,其中标黄的参数为必填。模板参数填写完成并保存后,单击导入窗口的“添加文件”,将填写后的模板文件上传至迁移中心。 上传成功后,单击“确认”按钮,系统自动开始采集。 您可以在任务列表页面,查看任务状态。 如果任务状态为“失败”,单击操作列的“查看”,可以查看采集失败的数据源,将鼠标放到数