检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
元数据采集任务接口 查询采集任务列表 创建采集任务 查询采集任务详情 编辑采集任务 删除单个采集任务 启动、调度、停止采集任务 获取任务日志 父主题: 数据目录API
说明 任务名称 采集任务的名称。 单击采集任务名称,可查看该采集任务的采集策略和调度属性。 数据源类型 数据连接的名称。 调度状态 显示采集任务的调度方式,单击,可进行筛选。 调度周期 显示采集任务的调度频率,单击,可进行筛选。 描述 展示采集任务的描述信息。 创建人 展示采集任务的创建人。
如果参数配置了依赖作业实际运行时产生的数据,参数预览功能中无法模拟此类数据,则该数据不展示。 质量监控 对已编排好的单任务作业关联质量作业,当前暂不支持单任务Data Migration作业和单任务的实时作业。 质量监控支持并行和串行两种方式。单击画布右侧“质量监控”页签,展开配置页面,配置如表6所示的参数。
通知管理 DataArts Studio使用消息通知服务(Simple Message Notification,简称SMN)依据用户的订阅需求主动推送通知消息,用户在作业运行异常或成功时能立即接收到通知。 管理通知 通知周期概览 终端订阅管理 父主题: 运维调度
为什么执行完HIVE任务什么结果都不显示? 可能原因 执行完HIVE任务结果不显示,可能是由于连接方式引起的。 解决方案 清理缓存数据,采用直连方式,数据就可以显示出来了。 父主题: 数据开发
Compaction的Spark周期任务? 问题描述 Migration写入数据到Hudi时为了保证稳定性需要将Compaction任务单独拆成Spark作业并交给MRS执行,那么如何进行配置? 解决方案 修改Migration实时集成作业配置。 Migration任务中必须关闭异步compa
返回的是InstanceVO 400 BadRequest 406 NOT ACCEPTABLE 500 INTERNAL SERVER ERROR 父主题: 任务实例接口
资源估算维度包括: DRS任务表数量 进入DRS任务,查看同步映射可以看到表数量。Migration单个作业表数量配置在50张以内性能最佳。 图1 查看DRS任务表数量 同步流量查看 进入DRS任务监控,查看监控指标,以“写目标库频率”为主要评估指标,同时观察DRS任务是否有时延。 Mi
开发实时处理单任务MRS Flink Jar作业 前提条件 参见新建作业创建一个实时处理的单任务Flink Jar作业。 配置MRS Flink Jar作业 表1 配置MRS Flink Jar作业属性参数 参数 是否必选 说明 Flink作业名称 是 输入Flink作业名称。
单击“查看监控指标”,跳转至云服务监控详情页面,查看图形化监控指标。 图3 查看监控指标 更多关于监控指标的信息,请参见云监控用户指南。 父主题: 实时集成任务运维
开发实时处理单任务DLI Spark作业 前提条件 参见新建作业创建一个实时处理的单任务DLI Spark作业。 配置DLI Spark作业 表1 配置属性参数 参数 是否必选 说明 作业名称 是 输入DLI Spark作业名称。 作业名称只能包含英文字母、数字、下划线和中划线,且长度为1~64个字符。
开发实时处理单任务MRS Flink SQL作业 对已新建的作业进行开发和配置。 开发单任务模式的实时处理Flink SQL作业,请您参考开发SQL脚本、配置作业参数、保存作业和模板章节。 前提条件 已新建作业。 当前用户已锁定该作业,否则需要通过“抢锁”锁定作业后才能继续开发作
为什么运行静态脱敏任务后却没有按照规则脱敏? 可能原因 静态脱敏任务依赖于敏感数据发现任务。如果未在“敏感数据分布”页面中修正敏感数据字段的数据状态为“有效”,则系统会认为表中无敏感字段,也就不会按照规则进行脱敏。 解决方案 创建静态脱敏任务前,必须先创建敏感数据发现任务,并在运行成功
作业日志默认实时滚动更新,可在右上角去掉勾选“日志滚动”选项。 支持下载日志到本地,可单击右上角文件下载按钮进行下载。 父主题: 实时集成任务运维
设置完成后,单击“立即创建”。当符合规则的告警产生时,系统会自动进行通知。 更多关于监控告警的信息,请参见云监控用户指南。 父主题: 实时集成任务运维
单击“启动”,启动任务调度。 相关操作 启动/停止订阅任务:在动态脱敏订阅页签,单击对应任务操作栏中的“启动”或“停止”,即可启动或停止该任务的调度。 编辑订阅任务:在动态脱敏订阅页签,单击对应任务操作栏中的“更多 > 编辑”,即可编辑订阅任务。 删除订阅任务:在动态脱敏订阅页签,单击对应任务操作栏中的“更多
补数据的作业实例都是成功的,为什么补数据任务失败了? 问题描述 补数据的作业实例成功,补数据任务失败了。 解决方案 补数据任务包含了其他工作空间的作业,可以在别的工作空间查看同名补数据任务的作业实例执行(失败)情况。 父主题: 数据开发
的次数,但可能导致单次请求时长增加,同时也可能导致缓存的数据增加进而影响内存使用。请综合考虑DWS规格和负载, 适当调整该值。 父主题: 任务性能调优
DataArts Studio调度CDM任务时报错Given transaction id [xxxx] is invalid,如何处理? 问题描述 DataArts Studio调度CDM任务时,报错Given transaction id [xxxx] is invalid。
定程度会影响实时任务的写入性能,为了保证Migration作业的稳定性可以考虑设置为false关闭compaction操作,将Hudi Compaction单独拆成Spark作业交由MRS执行,具体可以参考如何配置Hudi Compaction的Spark周期任务?。 compaction