检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
否 单次采集持续时间,单位为s(秒),1<取值范围<period值,取整数,不设置默认为period值的一半。 max_count 否 每次最大采集量,取值范围≥1,取整数,不设置默认为1000条。 period 否 采集间隔时间,单位为m(分钟),1m≤取值范围≤30m,取整数,不设置默认为1m。
最多可以创建5条记录。 时区时间以目的端Region的当地时间为准。 定时迁移 设置迁移任务在指定时间内迁移。 不勾选,手动启动/暂停迁移任务。 勾选,设置任务在指定时间范围内进行迁移,指定时间以外则暂停迁移。 例如: 设置开始时间08:00、结束时间12:00,则迁移任务会在每
TCO对比支持哪些云厂商? 目前支持的源端云厂商和资源范围如下表。 源端云厂商 源端资源类型 华为云资源类型 AWS EC2 ECS EBS EVS 阿里云 ECS ECS EBS EVS 部分EBS产品规格,由于计算方式差别较大,源端和华为云都忽略了IOPS以及突发性吞吐相关计
迁移工作流除了“开始迁移”、“开始同步”两个阶段运行时间比较久以外,其它步骤一般运行不会超过3分钟。如果长时间卡在某一步,可能是因为Edge上报结果给MgC的过程中丢失。 解决办法: 方法一:单击工作流名称,在工作流详情页面的主机页签,可以查看每个资源工作流状态。 方法二:请联系技术支持人员帮忙追踪任务是否正常收发。
最多可以创建5条记录。 时区时间以目的端Region的当地时间为准。 定时迁移 设置迁移任务在指定时间内迁移。 不勾选,手动启动/暂停迁移任务。 勾选,设置任务在指定时间范围内进行迁移,指定时间以外则暂停迁移。 例如: 设置开始时间08:00、结束时间12:00,则迁移任务会在每
表2 阿里云云数据库ClickHouse连接参数配置说明 参数 配置说明 所属源 选择源端。 连接名称 默认创建名称为“阿里云云数据库ClickHouse-4位随机数(字母和数字)”,也可以自定义名称。 ClickHouse凭证 选择在Edge添加的源端阿里云云数据库ClickH
说明 工作流详情 名称 用户自定义 描述 选择资源范围 按应用:迁移应用内的主机。 按迁移方案:对迁移方案中配置的主机进行迁移。 应用程序 应用名称 资源范围选择“按应用”时,选择待迁移主机所关联的应用。 迁移方案 方案名称 资源范围选择“按迁移方案”时,选择待迁移主机所在的迁移方
”或“-1” 问题描述 对Hive进行大数据校验,校验任务执行成功,查看校验结果,发现部分字段的“源端数据”和“目的端数据”显示为“0”或“-1”。 问题分析 出现该问题可能是因为数值超出了Hive支持的数值范围。 在数据处理中,如果遇到极大值或极小值,Hive可能无法以标准数值格式表示这些极端数值,而是将它们显示为
badRecordsPath - Bad Records的路径。 spark.sql.legacy.correlated.scalar.query.enabled false 该参数设置为true: 当子查询中数据不重复的情况下,执行关联子查询,不需要对子查询的结果去重。 当子查询中数据
单击资源名称,可以查看该资源的基本信息。 查看任务状态和详情 在资源采集页面,单击任务总数后的“查看”,进入任务列表页面。 图4 查看任务列表 单击采集任务操作列的“查看”,进入任务详情页面,可以查看到该任务包含的采集项。 单击采集项前的按钮,可以查看该采集项包含的采集数据源以及各资源类型的采集结果。
最多可以创建5条记录。 时区时间以目的端Region的当地时间为准。 - 定时迁移 设置迁移任务在指定时间内自动迁移。 不勾选,手动启动/暂停迁移任务。 勾选,设置任务在指定时间范围内进行迁移,指定时间以外则暂停迁移。 例如: 设置开始时间08:00、结束时间12:00,则迁移任务会
认规则文件基础上进行修改。 period 是 采集间隔时间,单位为s(秒)/m(分钟),1s<取值范围≤30m,取整数。 time 是 采集持续时间,超过设置的时长即停止采集,单位为m(分钟)/h(小时)/d(天),取值范围≥1m,取整数。 config_path 是 填写集群配置文件(yaml文件)的存储路径。
当app_only设置为false时,该参数必填。 采集持续时间,超过设置的时长即停止采集,单位为m(分钟)/h(小时)/d(天),取值范围≥1m,取整数。 interval 否 采集间隔时间,单位为m(分钟),1m≤取值范围≤30m,取整数,不设置默认为1m。 output_path
最多可以创建5条记录。 时区时间以目的端Region的当地时间为准。 定时迁移 设置迁移任务在指定时间内迁移。 不勾选,手动启动/暂停迁移任务。 勾选,设置任务在指定时间范围内进行迁移,指定时间以外则暂停迁移。 例如: 设置开始时间08:00、结束时间12:00,则迁移任务会在每
勾选,进行流量控制。分别设置“开始时间”、“结束时间”和“限速”数值。 例如:设置开始时间08:00、结束时间12:00、限速为20 MB/s,当迁移任务运行到(08:00~12:00)该时间段时,最大迁移速度将限制为20 MB/s。该时间段以外,迁移速度不做限制。 说明: 限速的数值范围:0~1048576
auth_source 否 填写MongoDB认证源。 times 是 设置采集次数,1≤取值范围≤1000。 interval 是 设置每次采集时间间隔,单位为s(秒),1≤取值范围≤60。 password 是 填写登录用户名对应密码。 user 是 填写拥有ClusterM
interval 否 采集间隔时间,单位为m(分钟),1m≤取值范围≤30m,取整数,不设置默认为1m。 time 否 当app_only设置为false时,该参数必填。 采集持续时间,超过设置的时长即停止采集,单位为m(分钟)/h(小时)/d(天),取值范围≥1m,取整数。 app_only
行”,手动启动迁移。 迁移任务运行后,单击操作列的“查看实例”,进入任务进度页签,可以查看该任务产生的运行实例以及迁移进度。 单击状态列的“重新运行”,可以多次运行迁移实例。 单击进度统计列的“查看”,进入进度详情页面。可以查看迁移的数据表清单、状态并导出任务结果。 (可选)数据
利用创建的Delta Lake元数据连接,将源端数据库的库、表、字段信息同步至迁移中心。仅Delta Lake(有元数据)支持创建数据湖元数据同步任务。 Delta Lake(无元数据)只能通过手动添加、导入模板等方式添加元数据库表信息,方法请参见查看元数据。 前提条件 已创建Delta Lake(有元数据)元数据连接。
填写连接到目的端Doris数据库的连接端口。 数据库连接端口为Doris FE的查询连接端口,可以通过登录Manager,单击“集群 > 服务 > Doris > 配置”,查询Doris服务的“query_port”参数获取。 数据库名 填写待校验数据所在的MRS Doris数据库名称。 在MgC