检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
执行脚本后报错:连接到远程服务器失败,且登录凭证信息正确 问题现象 执行脚本后报错,错误信息为“[ERROR] Failed to update hosts on xxx.xxx.x.xx: [xxx.xxx.x.xx] 连接到远程服务器 xxx.xxx.x.xx 失败有关详细信息,请参阅
txt文件行数不超过100000行。 单个列表文件大小不能超过300 MB。 列表文件存放目录下的列表文件个数不能超过10000个。 列表文件必须是UTF-8无BOM格式编码格式。 列表文件中每行长度不要超过65535,否则会导致迁移失败。 列表文件的元数据中不能设置“Con
资源采集 资源采集常见问题和处理方法 如何查看采集失败原因? 公网采集失败,提示:“网络连接超时”或“其他异常” 数据源采集失败,如何重新采集? 如何获取云平台凭证(AK/SK)? 如何获取添加Azure凭证所需的信息? 如何获取Azure对象存储深度采集所需凭证? 如何配置采集Azure容器资源所需权限?
OBS 文件夹和文件路径的最大长度限制均为1023个字节。 NAS 文件夹的最大长度限制为255个字节。 文件路径的最大长度限制为4096个字节。 SMB 文件夹的最大长度限制为226个字节。 文件路径的最大长度限制为32767个字节。 不同迁移方向支持的最大长度限制参见下表: 迁移方向
环境变量地址 请添加环境变量文件的绝对路径,示例:/opt/bigdata/client/bigdata_env, 如果该参数不为空,则环境变量文件在命令执行前将被自动“source” SQL文件地址 填写用于存放执行作业时生成的SQL文件的文件夹地址。您需要拥有该文件夹的读写权限。 须知:
数据源采集成功后,可以通过如下方式获取采集结果: 单击任务操作列的“下载json”,将采集结果保存为json文件,用于将采集结果导入MgC进行应用关联分析,详情请参考导入工具采集结果。 单击任务操作列的“下载csv”,将采集结果保存为csv文件,用于本地查看采集结果。 单击任务操作列的“显示结果路径”,可以查看采集结果存放路径。
在导入凭证之前,请打开并检查已保存的 CSV 文件,以确保所有内容正确无误,没有出现串行或乱码。 在Edge凭证管理界面的凭证区域,单击“导入凭证”按钮,弹出导入凭证窗口。 单击“添加文件”,将填写完凭证新增的CSV文件上传。 单次最多导入1000条完整的凭证信息,未填写或填写不完整的凭证会被忽略。 凭证名称会根据资源名称及接入地址自动创建。
资源发现与采集(复杂项目) 公网发现与采集 内网发现与采集 导入应用关联文件 导入工具采集结果 导入阿里云资源清单 导入RVTools资源 查看应用关联分析结果 父主题: 应用发现
在应用发现页面,单击任务总数后的“查看”,进入任务列表页面。可以查看任务状态和任务详情。如果任务状态为“失败”,单击操作列的“查看”,可以查看采集失败的数据源,将鼠标放到数据源的采集状态上,可以查看失败原因。 在应用发现页面,选择“资源列表”页签,单击主机资源类型或数量,进入资源列表页面的主机
Hudi(有元数据)连接 Hudi(无元数据)连接 MaxCompute连接 阿里云云数据库ClickHouse连接 您还可以通过手动添加、导入模板等方式添加元数据库表信息,方法请参见查看元数据。 前提条件 已创建元数据连接。 操作步骤 登录迁移中心管理控制台。 在左侧导航栏选择“
主机为XEN架构类型,需要您自行安装KVM驱动,由于没有安装相关KVM驱动导致迁移后无法启动的相关问题,迁移中心概不负责。 密码不一致免责声明 主机跨AZ迁移采用备份、镜像下发目的端的形式,无法保障密码的完全一致性,由源端自动重设密码应用、周期更新密码策略等原因导致迁移后目的端密
主机迁移工作流进行“启动迁移Agent”步骤时失败,报错信息为:System.OutOfMemoryException 问题分析 迁移工具Edge使用WinRM服务连接源端主机,进行脚本传输和执行。出现该问题是因为执行脚本的内存不足,导致迁移失败。 解决方法 检查并调整PowerShell内存配置。
错误排查:当操作结果为失败时,可以查看Edge日志以获取失败原因。 关键行为和资源显示: 对于修改密码或凭证等关键行为,资源字段会显示账号名称或凭证ID等内容。 对于MgC下发指令给Edge或Edge上报数据到MgC等关键行为,资源字段会显示存储这些内容的文件所在路径,您可以根据以下路径自行查找。
填写MRS客户端的安装目录路径。即安装客户端时,“./install.sh” 所填写的地址。 SQL文件地址 填写用于存放执行作业时生成的SQL文件的文件夹地址。您需要拥有该文件夹的读写权限。 须知: 迁移完成后,您需要手动清理该路径下生成的文件夹,以释放存储空间。 在MgC控制台,创建Hive统计任务并执行,方
传以下配置文件: 非安全集群(未开启Kerberos认证)需要上传core-site.xml,hdfs-site.xml,yarn-site.xml,mapred-site.xml和hbase-site.xml等5个配置文件。配置文件的获取方法请参考准备运行环境配置文件。集群是否
txt文件行数不超过100000行。 单个列表文件大小不能超过300 MB。 列表文件存放目录下的列表文件个数不能超过10000个。 列表文件必须是UTF-8无BOM格式编码格式。 列表文件中每行长度不要超过65535,否则会导致迁移失败。 列表文件的元数据中不能设置“Con
段信息同步至迁移中心。仅Delta Lake(有元数据)支持创建数据湖元数据同步任务。 Delta Lake(无元数据)只能通过手动添加、导入模板等方式添加元数据库表信息,方法请参见查看元数据。 前提条件 已创建Delta Lake(有元数据)元数据连接。 操作步骤 登录迁移中心管理控制台。
通过vpc log文件,采集vpc流量信息。参数配置说明参见表1。 表1 Cloud-vpc-log采集器参数配置说明 参数 必选 配置说明 output_path 否 自定义采集结果(app-discovery-cloud-vpc-log-xxx.csv文件)输出路径。不填则输
环境变量地址 请添加环境变量文件的绝对路径,示例:/opt/bigdata/client/bigdata_env, 如果该参数不为空,则环境变量文件在命令执行前将被自动“source” SQL文件地址 填写用于存放执行作业时生成的SQL文件的文件夹地址。您需要拥有该文件夹的读写权限。 须知:
所有主机的目的端信息配置完成后,保存Excel文件。返回MgC控制台,单击待迁移主机列表上方的“高级批量配置 > 导入目的端配置”,弹出导入目的端配置窗口。 单击窗口中的“前往OBS存放文件”,跳转到对象存储服务 OBS的桶列表页面。 选择要存放目的端配置文件(Excel文件)的桶,将Excel文件上传到该桶中。