检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
在应用列表,单击应用名称,进入应用详情页面。 在资源列表选择要添加的资源类型。以下步骤以关联主机资源为例。其它资源类型的关联方法与主机资源的方法相同。 在主机页签,单击列表上方的“关联资源”按钮,右侧弹出关联资源窗口。 图1 关联资源 勾选需要关联到同一应用的主机资源,单击窗口右下角的“关联到应用”。在资源列表中即可看到关联到应用的主机资源。
配置说明 output_path 否 自定义采集结果(app-discovery-cloud-vpc-log-xxx.csv文件)输出路径。不填则输出至默认路径:<采集器安装目录>\output\file目录下。 例如,C:\Edge\tools\plugins\collectors\a
支持在同一Region内通过内网进行迁移。 软连接处理 MgC不支持源端路径为软链接的迁移。如果源端包含软链接,请进行如下处理: 填写实际的文件路径。 迁移完成后,手动在目的端创建相应的软链接。 父主题: SFS1.0迁移至SFS 3.0
图标复制获取。 - 路径 输入目的端接收文件的路径,格式为:/文件夹。 当输入的是/时,表示迁移到目的端的根目录。 根据表4,进行迁移配置。 表4 迁移配置参数说明 参数 子参数 说明 迁移任务类型 全量迁移 迁移在源端信息配置的待迁移文件路径下/文件夹内的全部数据。 列表迁移
Eureka采集器(app-discovery-eureka) 通过Eureka提供的开发API,采集Eureka Server和Eureka Client的相关信息。参数配置说明参见表1。 表1 Eureka采集器参数配置说明 参数 必选 配置说明 output_path 否
以及队列中的消费者endpoint等信息。参数配置说明参见表1。 表1 RabbitMQ采集器参数配置信息 参数 必选 配置说明 output_path 否 自定义采集结果(app-discovery-rabbitmq-xxx.csv文件)输出路径。不填则输出至默认路径:<采集器
Spark应用每个Executor的CPU核数。该配置项会替换“sc_type”中对应的默认参数。 numExecutors 1-100 Spark应用Executor的个数。该配置项会替换“sc_type”中对应的默认参数。 executorMemory 1-16 G Spark应用的Executor内存,参数配置例如:2G
参数 必选 配置说明 output_path 否 自定义采集结果(app-discovery-redis-xxx.csv文件)输出路径。不填则输出至默认路径:<采集器安装目录>\output\file目录下。 例如,C:\Edge\tools\plugins\collectors\a
该采集器只能采集到通过netstat命令所识别的、具有长期网络连接特性的进程之间的关联关系。 表1 Windows进程与网络采集器参数配置说明 参数 必选 配置说明 host_path 是 填写待采集的Windows主机授权信息列表文件(csv文件)所保存的路径(如,D:\nodes.csv)。 授权信息
凭证 选择在Edge添加的源端主机凭证,如未提前在Edge上添加源端主机凭证,请前往Edge控制台添加,并同步至迁移中心。 配置完成后,单击“确认”按钮,系统会校验配置信息的正确性并自动执行“迁移预检查”,包括:校验Edge设备与源端的连通性,校验凭证的有效性,并自动对主机规格
在工作流列表,单击工作流名称,进入工作流详情页面,可以查看该迁移工作流的配置信息和资源迁移进度。 步骤四:恢复桶的访问策略 迁移完成后,恢复源端桶的访问策略。 如果在步骤1.中执行命令的返回结果为 Policy: none,请执行如下命令,删除添加的公开访问策略: s3cmd delpolicy s3://<BUCKET-NAME>
创建工具采集任务 Edge提供了多种类型的线下采集器,用于采集线下网络环境中的资源规格和配置信息。本节为您介绍创建线下工具采集任务的方法。 前提条件 已下载并安装Edge,并完成用户注册。 已安装待采集资源类型的采集器。 操作步骤 使用注册的用户名、密码登录Edge控制台,在左侧导
执行命令后,将生成3个文件的共享下载链接并保存在test2.txt文件中。 打开生成的URL列表文件(在本文示例中为test2.txt),您将看到每个文件的共享下载链接。通过浏览器尝试访问这些链接,以验证生成的URL是否有效。 如果链接无法访问,请检查文件的访问权限是否设置为可读,并重新生成链接。
如果需要在主机工作流迁移完成后保留SMS迁移任务,需要手动在“迁移任务清理”步骤前添加一个卡点步骤,如图5所示。添加卡点步骤的方法和注意事项请参见添加阶段/步骤。 图5 添加卡点步骤 当工作流执行到该卡点步骤时,不要进行手动确认操作,如图6所示。此时SMS控制台上的迁移任务不会被清理且状态为“已完成”,如图7所示
Azure认证方式请选择“ID/密钥”。添加凭证所需的信息获取方法请参见如何获取添加Azure凭证所需的信息。 是 区域 选择要发现的源端云平台区域,支持多选。 是 在资源类型下拉列表,勾选需要进行采集的资源类型(采集项)。当前支持采集的云平台和资源类型参见表2。 图2 选择要采集的资源类型 表2 支持采集的资源类型
支持公网、内网和专线迁移。 软链接 不支持源端路径为软链接路径的迁移。如果源端包含软链接,请进行如下处理: 填写实际的文件路径。 迁移完成后,手动在目的端创建相应的软链接。 不支持软连接的迁移:NAS_SMB的迁移、NAS_NFS到OBS的迁移。 NAS_NFS到NAS_NFS的迁移和阿里云 OSS到N
为采集凭证,凭证的获取方法请参见如何获取Azure对象存储深度采集所需凭证。 配置完成后,单击操作列的“添加前缀”,弹出添加前缀窗口。 输入指定的资源目录路径进行采集,不输入则默认采集全桶资源,单击“确定”保存前缀设置。 完成深度采集配置和添加前缀后,单击操作列的“深度采集”,系
实例。 单击操作列的“查看实例”,进入任务实例管理页签。可以查看该任务的运行记录,以及每条任务实例的状态和采集结果。当元数据同步任务的实例状态为“已完成”且采集结果有数值时,在库表清单页签可以查看采集到的元数据列表。 元数据采集完成后,在元数据列表单击血缘列的“去采集”,可以创建血缘采集任务。
您关心的是分区内数据的最新状态或最近一段时间内的数据变更,可以选择“更新时间”作为筛选条件。 创建时间:指分区被首次创建时的时间戳。如果您关心的是分区从创建开始到某个时间点内的数据,可以选择“创建时间”作为筛选条件。 分区上限:用于限制查询或处理的分区数量,避免不必要的全表扫描或
标准解冻:适用于对访问时间要求不是特别紧急的情况,解冻耗时大约需要3~5小时。 加急解冻:适用于需要快速访问数据的情况,解冻时间可以在1~5分钟内完成,但可能涉及额外的费用。 迁移中心的存储工作流提供了自动“解冻归档数据”功能,采用加急解冻的方式完成数据恢复。 支持的区域 当前支持以下区域(Region):