检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
配置MgC Agent(原Edge)插件JVM参数 配置Edge Tomcat服务器JVM参数 配置采集器插件JVM参数 父主题: 最佳实践
可以查看可用区迁移模板所包含的迁移阶段和步骤,以及每个阶段和步骤的详细描述。其中,步骤类型为“自动”,表示该步由系统自动完成;步骤类型为“手动”,表示该步需要用户手动操作。单击“开始配置”按钮,进行工作流配置。 根据表1参数说明,配置工作流参数。 表1 可用区工作流配置参数说明 区域
可以查看可用区迁移模板所包含的迁移阶段和步骤,以及每个阶段和步骤的详细描述。其中,步骤类型为“自动”,表示该步由系统自动完成;步骤类型为“手动”,表示该步需要用户手动操作。单击“开始配置”按钮,进行工作流配置。 根据表1参数说明,配置工作流参数。 表1 可用区工作流配置参数说明 区域
与MgC建立连接的MgC Agent。 执行机凭证 选择步骤6.在MgC Agent侧添加的源端Delta Lake执行机凭证。 执行机IP 填写连接执行机的IP地址。 执行机连接端口 填写连接执行机的端口,默认为22端口。 Spark客户端目录 填写Spark客户端的bin目录的绝对路径
应用场景 应用现状调研 提供丰富的调研能力,支持其他云厂商或者自建IDC中的应用现状调研,并且绘制对应架构图和依赖图,为后续迁移计划的制定提供帮助。 主机批量迁移 提供高灵活、可定制的迁移工作流,根据采集的源端主机性能数据,推荐最合适的华为云主机规格,帮助用户一站式大批量发起迁移任务。
Kafka采集器(app-discovery-kafka) 通过连接到Kafka节点,获取Kafka节点IP、版本、消费者信息等。参数配置说明参见表1。 表1 Kafka采集器参数配置说明 参数 必选 配置说明 output_path 否 自定义采集结果(app-discovery-kafka-xxx
update_hosts_win.ps1 批量更新源端Windows主机的hosts文件。脚本会自动记录操作日志,提示异常信息,并生成操作总结。 在迁移Windows主机之前,执行此脚本以更新源端主机的hosts配置。 rollback_hosts_win.ps1 批量恢复源端Windows主机的hosts
可选参数。开启后,通过该连接创建的统计任务将收集大数据服务的资源使用信息,这些信息将用于MgC上的报告生成,以便于进行性能优化。 须知: 使用该功能,需要MgC Agent添加的华为云账号AK/SK拥有MRS服务和DLI服务的只读权限(ReadOnly)。 如果所选凭证与登录迁移中心 MgC的账号凭证相
输入需要校验的数据(即目的端数据)所在区域的代码。例如:ap-southeast-1。可以参考终端节点获取不同区域的区域代码信息。 项目ID 输入需要校验的数据所在的项目ID。获取方法请参考获取项目的名称和ID。 队列名称 输入需要进行校验的DLI队列名称。队列类型必须是SQL队列。 采集资源使用信息 可选参
bat。 查询正在运行的采集器插件的JVM参数。 打开任务管理器(可以按下ctrl + alt + delete,并在弹出的页面中选择 任务管理器 打开)。在任务管理器的页签中选择详细信息。 图1 详细信息 找到名为 “rda-collector-server.exe”的程序,查看其对应pid。
y-rabbitmq) 通过连接到RabbitMQ管理插件,获取RabbitMQ节点列表、版本、队列以及队列中的消费者endpoint等信息。参数配置说明参见表1。 表1 RabbitMQ采集器参数配置信息 参数 必选 配置说明 output_path 否 自定义采集结果(app
授权信息列表文件(csv文件)需要您自行创建,在csv文件的第一行(即表头),请按照以下顺序和参数名称填写,并在表头下方的行中,填写每个需要采集的Windows主机的具体参数值。其中IP、USER和PASSWORD为必填参数。 IP(REQUIRED) PORT(REQUIRED) USER(REQUIRED)
打开导出的CSV文件,在最后增加“user_name”和“password”两列,并填写对应资源的用户名和密码。填写完成后,保存文件。 在导入凭证之前,请打开并检查已保存的 CSV 文件,以确保所有内容正确无误,没有出现串行或乱码。 在MgC Agent控制台的凭证列表页面,单击列表上方的“导入凭证”按钮,弹出导入凭证窗口。
sh” 所填写的地址。 SQL文件地址 填写用于存放执行作业时生成的SQL文件的文件夹地址。您需要拥有该文件夹的读写权限。 须知: 迁移完成后,您需要手动清理该路径下生成的文件夹,以释放存储空间。 采集资源使用信息 可选参数。开启后,通过该连接创建的统计任务将收集大数据服务的资源使用信
储数据的高效迁移。 约束与限制 关于存储迁移的约束与限制请查看存储迁移的约束与限制有哪些? 源端为阿里云OSS:当源端对象的存储类型是深度冷归档存储时,无法使用MgC提供的解冻归档数据功能直接迁移,需要在源端先手动解冻后再迁移。 风险提示 在创建工作流时,对于源端和目的端的同名对
凭证管理 凭证是资源采集的唯一认证方式,本节介绍如何添加用于发现云上资源(公网发现)所需要的凭证。内网发现、手动添加所需的凭证添加方式请参考在Edge添加凭证。 认证方式 当前仅支持添加公有云资源类型的凭证。支持的认证方式参见表1。 表1 公有云认证方式 资源类型 认证方式 说明
华为云上的产品及用量,并对比源端云厂商使用费用和华为云使用费用,为您云间迁移提供参考。 支持区域: 全部 创建上云分析任务 资源发现与采集 支持多种类的资源采集,包括:云平台、主机、数据库、容器、大数据、中间件等。通过对采集到的信息进行调研评估,为用户上云提供配置推荐和方案设计。
与MgC建立连接的MgC Agent。 执行机凭证 选择步骤6.在MgC Agent侧添加的源端Delta Lake执行机凭证。 执行机IP 填写连接执行机的IP地址。 执行机连接端口 填写连接执行机的端口,默认为22端口。 Spark客户端目录 填写Spark客户端的bin目录的绝对路径
MgC主机迁移工作流在迁移过程中,首先系统会采集源端主机的磁盘挂载信息,并根据源端的磁盘挂载情况在目的端创建相应的磁盘配置。但在实际迁移时,只会迁移源端已挂载、已使用且文件系统兼容的磁盘。因此,在迁移过程中目的端主机只挂载了满足迁移条件的磁盘,而未使用或文件系统不兼容的磁盘则会被剥离,处于“未挂载”状态。
用户自定义 元数据连接 选择步骤12.创建的元数据连接。 注意: 表组中的所有表必须来源于同一个元数据来源。 校验标准 选择可以接受的数据差异最大值(即错误容忍度)。MgC提供了多种类型的对数标准可供选择,关于对数标准的详细说明,可以单击新增表组弹窗中的“查看更多”进行查看。 说明(可选)