检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
安装Windows版本的主机要求 可以连接外网(公网),并检查是否能够访问MgC和IoTDA服务的域名,具体需要检查的域名请查看域名列表。 检查是否已开放MgC Agent(原Edge)需要的端口,所需端口请查看通信矩阵。 PowerShell 版本在3.0及以上。 推荐规格不小于4U8G。 安全组的出方向规则中,需要包含8883端口。
打开任务管理器,在详细信息页面,查看主机采集器(rda-collector-server.exe)运行状态,状态为“正在运行”,代表采集器已启动。 返回MgC控制台,单击资源深度采集列的“重新采集”,重新进行资源采集。 重启Linux采集器 登录MgC控制台,确保当前MgC Agent没有
的管理选项卡。 在“非Unicode 程序的语言”框中,单击“更改系统区域设置”,弹出区域设置窗口。 查看当前系统区域设置与当前语言是否一致。如果不一致,在下拉列表中选择与当前语言一致的地区,单击“确定”。 更改完成,请重启计算机,并确认设置是否生效。 父主题: 资源采集
在左侧导航栏选择“迁移实施>迁移工作流”,进入迁移工作流页面。 单击页面右上角的“创建迁移工作流”按钮,进入选择模板页面。 选择可用区迁移标准模板,单击“查看步骤详情”,可以查看可用区迁移模板所包含的迁移阶段和步骤,以及每个阶段和步骤的详细描述。其中,步骤类型为“自动”,表示该步由系统自动完成;步骤类型为
允许的资源类型 选择至少包含:容器和对象。 允许的权限 选择至少包含:读取和列表,如果要迁移归档类对象权限则需要再勾选:写入。 开始和到期日期/时间 需要确保在迁移任务过程中,连接字符串不会失效。 单击“生成SAS和连接字符串”,即可显示连接字符串和SAS令牌、Blob服务SAS
创建目的端云服务连接 对大数据云服务数据进行一致性校验时,需要分别与源端和目的端云服务建立连接,用于数据查询和计算。 目前支持创建目的端连接的大数据云服务包括: 数据湖探索(DLI) CloudTable(ClickHouse) CloudTable(HBase) 操作步骤 登录迁移中心管理控制台。
新项目窗口。 图1 创建项目 在弹出的窗口中,仔细查看并了解项目类型的适用场景后,根据实际需求选择项目类型。 项目类型选择后将无法更改。 图2 选择项目类型 输入自定义的项目名称,单击“创建”。创建项目成功,可在项目管理列表查看。 修改项目 单击操作列的“修改”按钮,弹出“修改项目”窗口。
步骤三:评估迁移准备度 该操作主要用于校验源端待迁移主机的基本配置、网络环境和迁移分组。 前提条件 已完成阿里云ECS主机资源采集。 已在MgC Agent添加源端主机凭证。 操作步骤 在资源采集页面的主机资源列表上方选择“目标场景>主机迁移”,此时源端迁移准备度列会出现“配置”按钮,状态为“未就绪”。
迁移工作流状态为“运行中”,如何查看迁移进度? 您可以通过以下两种方式查看迁移进度: 在工作流列表中,单击工作流名称,进入工作流详情页面,可以查看工作流包含的每台主机的迁移进度详情。 当主机迁移进度进行到“全量复制”和“增量同步”步骤时,如图1所示,单击任务详情(即目的端名称),
端云服务建立连接,用于数据查询和计算。 目前支持创建源端连接的大数据云服务包括: MaxCompute 阿里云云数据库ClickHouse 操作步骤 登录迁移中心管理控制台。 在左侧导航栏选择“实施>大数据校验”,进入大数据校验页面。在页面左上角的当前项目下拉列表中选择迁移项目。
查看元数据 您可以通过创建采集任务、手动添加、导入模板等方式获取元数据库表清单。 通过采集任务获取元数据 创建采集任务的方法请参考创建并运行元数据同步任务。当元数据同步任务的实例状态为“已完成”且采集结果有数值时,在库表清单页签可以查看采集到的元数据列表。 手动添加数据表 登录迁
能采集 > 开始”,启动主机性能采集。此时性能采集列的状态为“采集中”。 开始性能采集后,您还可以进行如下操作: 单击操作列的“查看性能详情”,可以查看采集到的主机性能数据。 单击列表上方的“批量性能采集 > 停止”,可以批量暂停性能数据采集。 配置目的端。您可以根据实际情况,选择配置目的端主机的方法。
步骤五:创建主机迁移工作流 当完成所有准备工作和步骤一~步骤四的操作后,即可前往迁移工作流界面,创建主机迁移工作流。 父主题: 阿里云主机迁移至华为云
主机深度采集成功,部分采集规格信息缺失 问题描述 进行主机深度采集后,在资源详情中查看采集的基本信息和规格信息,发现存在部分信息缺失的情况。 问题分析 出现该问题,可能是在安装MgC Agent(原Edge)主机上的Linux采集脚本时,UNIX换行符格式不正确。正常情况下,Li
数据迁移失败,提示超过DLI网管流控上限 问题描述 进行大数据数据迁移失败,在数据湖探索的Spark作业查看报错信息为:The throttling thershold has been reached 问题分析 出现该问题,是因为您创建的资源数量已达到DLI服务流控限制阈值。 解决方法
Agent上添加源端待迁移主机凭证,凭证的添加方法请参考添加资源凭证。资源类型请根据实际情况选择“Windows主机”或“Linux主机”。 父主题: 阿里云主机迁移至华为云
-k8s-conntrack\config\kube-config\xxx.yaml 配置文件内容获取方法如下: 在需要采集的k8s集群服务器上,使用如下命令,将获取到的信息粘贴到一个自建的yaml文件里,再将yaml文件的绝对路径填写到此处。 cat ~/.kube/config
准备工作 配置PowerShell执行策略 检查执行策略,确保PowerShell允许运行脚本。打开PowerShell,输入以下命令检查当前执行策略: Get-ExecutionPolicy 以下是不同的返回结果说明: Restricted:不允许执行任何脚本。 AllSigned:只能运行由可信发布者签名的脚本。
迁移任务执行失败如何处理? 如果迁移工作流完成后显示工作流状态为失败,请通过以下方式尝试解决。 方式一:通过LTS查询失败原因 如果在创建集群时启用了LTS日志,可以通过下列步骤查询任务失败原因,获得迁移失败的ERROR日志,可以自行分析失败原因或者提交给华为云技术支持人员分析原因并给出修复建议。
前提条件 已完成准备工作。 操作步骤 登录迁移中心控制台。 在左侧导航栏选择“实施>大数据数据迁移”,进入大数据数据迁移页面。在页面左上角的当前项目下拉列表中选择在完成准备工作时所创建的迁移项目。 单击页面右上角的“连接管理”按钮,进入连接管理页面。 首次使用大数据数据迁移功能时,