检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
ery-nacos\config\rules.properties 须知: 建议使用采集器提供的默认规则文件进行采集,如果需要自定义采集规则,请在默认规则文件基础上进行修改。 password 是 填写登录用户名对应的密码。 username 是 填写拥有可读权限的登录用户名。 port
txt,大小不超过2 MB。 每行只能包含一个前缀,每个前缀的长度不超过1024个字符。 前缀总数(即行数)不超过1000。 使用须知 支持的区域 当前支持在以下区域(Region)进行批量迁移,其它Region请使用线下工具RDA或者咨询其它方案进行迁移。 华北-北京四 华北-乌兰察布一
源凭证,类型选择“大数据-Doris”。 数据库地址 填写目的端Doris集群部署的服务器IP地址。 可登录FusionInsight Manager,选择“集群 > 服务 > Doris”,查看“Leader所在的主机”获取。 数据库端口 填写目的端Doris集群部署的服务器的端口。
配置同步完成后,您可以选择以下两种方式执行统计任务: 自动定时执行:按照设置的执行时间,自动、定时执行作业。 在任务列表,单击统计任务调度状态列的“激活”按钮,弹出激活提示窗。 单击“确认”按钮,激活自动化执行作业。 手动执行:手动立即触发一次作业的执行。 在任务列表,单击统计任务操作列的“执行作业”按钮,弹出执行作业提示窗。
登录目的端主机,鼠标右键单击开始菜单。 单击“运行”,输入cmd,进入命令行提示符界面。 执行diskpart,启动磁盘管理工具。 执行list disk,列出当前服务器所有磁盘。 如下图所示,磁盘0处于“联机”状态,磁盘1处于“脱机”状态。 执行select disk 1选择脱机状态的
选的主机进行风险评估。 在评估列表中可以查看各主机的迁移风险评估状态,以及不同风险级别存在的风险项数量。单击主机名称或风险项数量,右侧弹出资源详情窗口,在迁移风险页签,可以查看评估包含的所有项目以及各项目的参数说明和风险程度。 对于存在风险的项目,可以根据优化建议进行处理,处理完
请参考阿里云资源管理产品文档进行API GetInstanceList调试,并根据返回的错误码定位问题原因,或联系阿里云技术支持人员。 调用阿里云RDS SDK失败。 请检查所用凭证和所选区域是否正确,或检查凭证所属账号是否开通阿里云RDS服务。 调用阿里云RDS schema SDK失败。
配置完成后,选择任务的运行方式。 创建的迁移任务可重复运行,每运行一次,即会生成一条任务实例。 单击任务名称,可以修改任务配置。 立即运行:如果需要立即运行迁移任务,可以勾选“保存后立即运行”,然后单击“保存”按钮,会在任务管理列表中生成一条元数据增量感知任务并自动开始执行迁移。 手动运行:如果需
配置完成后,选择任务的运行方式。 创建的迁移任务可重复运行,每运行一次,即会生成一条任务实例。 单击任务名称,可以修改任务配置。 立即运行:如果需要立即运行迁移任务,可以勾选“保存后立即运行”,然后单击“保存”按钮,会在任务管理列表中生成一条全量数据迁移任务并自动开始执行迁移。 手动运行:如果需
则需要及时联系源端厂商进行调整。 目的端 请求QPS和流入流量 观察目的端请求处理速度(QPS)和流入流量,及时发现并应对潜在的性能瓶颈。 通过对比官方资料中提供的阈值,如果QPS或流出流量接近或超过80%-90%的阈值,则需要及时联系目的端厂商进行调整。 对于源端桶和目的端桶
配置完成后,选择任务的运行方式。 创建的迁移任务可重复运行,每运行一次,即会生成一条任务实例。 单击任务名称,可以修改任务配置。 立即运行:如果需要立即运行迁移任务,可以勾选“保存后立即运行”,然后单击“保存”按钮,会在任务管理列表中生成一条元数据增量迁移任务并自动开始执行迁移。 手动运行:如果需
Hive校验的sum统计结果显示未达标 问题描述 对Hive进行大数据校验,Hive中的double字段保存的值为 1.7976931348623157E308 和 -1.7976931348623157E308 时 sum 统计结果显示未达标。 问题分析 使用spark-sql 客户端,进行sql操作,出现用同一个命令存在返回值不同的情况。
部分表迁移失败,报错:CRC Check failed 问题描述 进行大数据数据迁移时,部分表迁移失败,报错:CRC Check failed 解决方法 通过修改DLI作业中迁移sql,将源端timestamp字段类型转成String类型,进行数据迁移。 父主题: 大数据数据迁移
数据源采集成功后,可以通过如下方式获取采集结果: 单击任务操作列的“下载json”,将采集结果保存为json文件,用于将采集结果导入MgC进行应用关联分析,详情请参考导入工具采集结果。 单击任务操作列的“下载csv”,将采集结果保存为csv文件,用于本地查看采集结果。 单击任务操作
据表并加入表组。 分别创建源端执行机连接和目的端执行机连接,方法请参考创建执行机连接。执行机凭证分别选择步骤4.在Edge侧添加的源端和目的端执行机凭证。 在MgC控制台,分别创建源端和目的端Delta统计任务并执行,方法请参考创建统计任务并执行校验。需要注意任务配置中的表组,选择步骤16
如何获取Azure对象存储深度采集所需凭证? 在对Azure云平台对象存储资源进行深度采集时,需要使用“存储账户”和“密钥”做为采集凭证,本节介绍获取Azure“存储账户”和“密钥”的方法。 登录 Azure 门户中转到存储账户。 在左侧导航栏选择“安全性和网络 > 访问密钥” ,即可看到“存储账户名称”和“密钥”。
法请参见如何获取添加Azure凭证所需的信息。 私有云 用户名/密码 输入源端私有云的登录用户名、密码。 数据库 用户名/密码 输入数据库的登录用户名、密码。 大数据-执行机 用户名/密码 输入大数据所部属主机的登录用户名、密码;网段限制填写网段地址,可以是单个IP地址或IP地址段。
将血缘模板下载到本地,并填写模板内的参数。其中,如下参数值为必填字段。 目标数据库(TargetDataset) 目标表(TargetTable) 目标连接名称(TargetConnectionName) 目标组件类型(TargetComponentType) 上游数据库(SourceDataset) 上游表(SourceTable)
配置完成后,选择任务的运行方式。 创建的迁移任务可重复运行,每运行一次,即会生成一条任务实例。 单击任务名称,可以修改任务配置。 立即运行:如果需要立即运行迁移任务,可以勾选“保存后立即运行”,然后单击“保存”按钮,会在任务管理列表中生成一条元数据全量迁移任务并自动开始执行迁移。 手动运行:如果需
迁移工作流状态一直处于“运行中”,如何判断迁移是否正常? 迁移工作流除了“开始迁移”、“开始同步”两个阶段运行时间比较久以外,其它步骤一般运行不会超过3分钟。如果长时间卡在某一步,可能是因为Edge上报结果给MgC的过程中丢失。 解决办法: 方法一:单击工作流名称,在工作流详情页