检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
手动添加 适用于采集本地主机和暂不支持公网、内网采集的云平台主机。 前提条件 已在源端内网环境安装Edge工具,并与迁移中心连接。 已在Edge上添加源端主机凭证。为确保采集过程具备充分的系统访问权限,主机凭证要求如下: Linux主机,请添加Root账号和密码作为采集凭证。 W
行脚本的主机通过SSH协议进行连接。 SSH访问权限设置 SSH服务配置:确保所有源端主机上的SSH服务已启用并运行正常。大多数Linux服务器发行版默认启用SSH服务。 SSH密码认证:确保所有源端主机的SSH服务已配置为接受密码认证,以便脚本可以使用CSV文件中提供的密码进行自动登录。
password 否 开启用户认证时,填写Eureka服务器访问密码,多个密码之间用逗号分隔(按照endpoint的顺序对应输入),若某个服务器无密码,用空格代替。例如:password1, ,password2 endpoint 是 填写Eureka服务器地址,如果是集群,地址之间用逗号分隔。例如
如何获取Azure对象存储深度采集所需凭证? 在对Azure云平台对象存储资源进行深度采集时,需要使用“存储账户”和“密钥”作为采集凭证,本节介绍获取Azure“存储账户”和“密钥”的方法。 登录 Azure 门户中转到存储账户。 在左侧导航栏选择“安全性和网络 > 访问密钥” ,即可看到“存储账户名称”和“密钥”。
创建一个文本文件,包含需要追加到源端主机hosts文件中的内容,并确保该文件能被访问。文件内写入相关云服务的接口域名映射,并以#Migration-proxy-start开始,以#Migration-proxy-end结束。相关云服务的接口域名映射需要根据具体的环境而定,请联系对应局点的环境接口人获取。 示例:
以主机采集器为例进行介绍,其它采集器处理方法相同。 采集器 采集资源 进程名 安装目录 rda-collector-platform 私有云平台(目前仅支持VMware) rda-collector-platform.exe <安装路径>\Edge\tools\plugins\collectors
根据表2、表3,配置源端、目的端信息。 表2 源端信息参数说明 参数 说明 备注 数据站点类型 选择“NAS_NFS_V3_PROTOCOL” - 文件存储服务地址 输入源端文件系统的挂载地址,格式为:IP地址+:/或IP地址+:/ xxx,例如:192.1.1.1:/或192.1.1.1:/0001
Management/getEntities/action 操作步骤 登录Azure控制台,进入主页。 在页面上方的搜索框中输入“资源组”,选择“资源组”服务,进入资源组页面。 在资源组列表中找到购买AKS的资源组,单击资源组名称,进入该资源组概述页面。 在左侧导航栏,选择“访问控制(标识和访问
您可以在任务列表页面,查看任务状态。 如果任务状态为“失败”,单击操作列的“查看”,可以查看采集失败的数据源,将鼠标放到数据源的采集状态上,可以查看失败原因。处理完失败原因后,需要删除该采集任务,重新导入文件进行采集。 当任务状态为“成功”时,您可以前往应用管理页面,查看应用关联分析结果。
您可以在任务列表页面,查看任务状态。 如果任务状态为“失败”,单击操作列的“查看”,可以查看采集失败的数据源,将鼠标放到数据源的采集状态上,可以查看失败原因。处理完失败原因后,需要删除该采集任务,重新导入文件进行采集。 当任务状态为“成功”时,您可以前往应用管理页面,查看应用关联分析结果。
tableReadProvider 填写tunnel spark.hadoop.odps.end.point 填写源端MaxCompute服务所在地域的VPC网络Endpoint信息。各地域VPC网络Endpoint信息请参考Endpoint对照表。例如:源端所在地域为“香港”,则填写“http://service
提前添加凭证,请前往迁移工具Edge添加私有云凭证。凭证中的用户名、密码为vCenter的登录用户名和密码。 单击“确认”,内网发现任务创建完成,系统开始主机资源发现。 在资源采集页面,单击任务总数后的“查看”,进入任务列表页面,查看任务状态。 内网发现任务状态为成功后,即可进行主机深度采集。
提前添加凭证,请前往迁移工具Edge添加私有云凭证。凭证中的用户名、密码为vCenter的登录用户名和密码。 单击“确认”,内网发现任务创建完成,系统开始主机资源发现。 在资源采集页面,单击任务总数后的“查看”,进入任务列表页面,查看任务状态。 内网发现任务状态为成功后,即可进行主机深度采集。
提前添加凭证,请前往迁移工具Edge添加私有云凭证。凭证中的用户名、密码为vCenter的登录用户名和密码。 单击“确认”,内网发现任务创建完成,系统开始主机资源发现。 在资源采集页面,单击任务总数后的“查看”,进入任务列表页面,查看任务状态。 内网发现任务状态为成功后,即可进行主机深度采集。
填写登录用户名对应的密码。 username 是 填写RabbitMQ管理插件登录用户名。 server_port 是 填写RabbitMQ服务端口。例如:5672 plugin_port 是 填写RabbitMQ管理插件端口。例如:15672 host 是 填写连接RabbitMQ的IP地址。例如:127
式。 元数据迁移不支持事务表(即DDL中带有transactional=true字段的表)。 由于阿里云最近更新了timestamp_ntz字段类型,目前该字段类型尚未被阿里云SDK所兼容支持,这一兼容性问题导致SDK无法识别并读取该字段,从而使该字段所在的表元数据迁移失败。 注意事项
其中general_log_file代表日志文件路径。Linux路径示例:/data/log/mysql_general.log 重启MySQL服务。 net stop mysql net start mysql 父主题: 采集器参数配置说明
集。 在任务列表页面,单击采集任务操作列的“查看”,进入任务详情页面。 单击采集项操作列的“新增数据源”,弹出新增数据源窗口。 选择区域和资源类型,单击“确认”按钮。新增数据源成功,系统开始对新增的数据源进行采集。 单击采集项,可以查看数据源的采集状态。 父主题: 资源采集
主机迁移工作流错误码处理方法汇总 使用主机迁移工作流时,当出现SMS-Workflow.xxxx类型的报错时,可通过错误码描述和处理方法查询报错原因以及处理方法。 父主题: 主机迁移工作流
配置文件所在文件夹仅能存放与采集相关的yaml配置文件,可以存放多个配置文件,但不能存放与采集无关的其它yaml文件。 配置文件内容获取方法如下: 在需要采集的k8s集群服务器上,使用如下命令,将获取到的信息粘贴到一个自建的yaml文件里,再将yaml文件的绝对路径填写到此处。 cat ~/.kube/config