检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
获取导入导出的任务状态 功能介绍 该接口用于获取导出导入任务的进度状态。 调用方法 请参见如何调用API。 URI GET /v2/{project_id}/quality/resource/status/{resource_id} 表1 路径参数 参数 是否必选 参数类型 描述
勾选复选框,则表示立即启动此调度任务。 单击“提交”,采集任务创建成功。 管理采集任务 在DataArts Studio控制台首页,选择对应工作空间的“数据目录”模块,进入数据目录页面。 选择“元数据采集 > 任务管理”。 在采集任务页面,可查看所有已创建的采集任务。 表6 管理采集任务 参数名 说明
的最大错误记录数时,任务自动结束,已经导入的数据不回退。 schedulerConfig.isSchedulerJob 否 Boolean 是否开启定时任务,例如:“true”。 schedulerConfig.cycleType 否 String 定时任务的周期类型,目前支持五种周期类型:
创建了Hive到DWS类型的连接,进行CDM传输任务失败时如何处理? 问题描述 创建了Hive到DWS类型的连接,进行CDM传输任务失败。 解决方案 建议清空历史数据后再次尝试该任务。在使用CDM迁移作业的时候需要配置清空历史数据,然后再做迁移,可大大降低任务失败的概率。 父主题: 数据集成(CDM作业)
在进行转储时,如果引用字符和转义字符不填,如下图所示。 下载的.csv用excel打开以后如下图所示,是分成两行的。 在转储时,如果引用字符和转义字符都填写,比如,引用字符和转义字符都填英文双引号("),则下载以后查看结果如下图所示。 模板 在开发Hive SQL、Spark SQL单任务作业时,系统支持可
元数据采集任务接口 查询采集任务列表 创建采集任务 查询采集任务详情 编辑采集任务 删除单个采集任务 启动、调度、停止采集任务 获取任务日志 父主题: 数据目录API
开发实时处理单任务DLI Spark作业 前提条件 参见新建作业创建一个实时处理的单任务DLI Spark作业。 配置DLI Spark作业 表1 配置属性参数 参数 是否必选 说明 作业名称 是 输入DLI Spark作业名称。 作业名称只能包含英文字母、数字、下划线和中划线,且长度为1~64个字符。
志文件,即可实时查看作业的运行日志。 图1 日志信息1 图2 日志信息2 支持作业日志主题更换。 作业日志默认实时滚动更新,可在右上角去掉勾选“日志滚动”选项。 支持下载日志到本地,可单击右上角文件下载按钮进行下载。 父主题: 实时集成任务运维
开发实时处理单任务MRS Flink Jar作业 前提条件 参见新建作业创建一个实时处理的单任务Flink Jar作业。 配置MRS Flink Jar作业 表1 配置MRS Flink Jar作业属性参数 参数 是否必选 说明 Flink作业名称 是 输入Flink作业名称。
数据目录的核心是通过元数据采集任务,采集并展示企业在工作空间范围内的数据资产地图,包括元数据信息和数据血缘关系。 元数据管理 元数据管理模块是数据湖治理的基石,支持创建自定义策略的采集任务,可采集数据源中的技术元数据。支持自定义业务元模型,批量导入业务元数据,关联业务和技术元数据、全链路的血缘管理和应用。
为什么执行完HIVE任务什么结果都不显示? 可能原因 执行完HIVE任务结果不显示,可能是由于连接方式引起的。 解决方案 清理缓存数据,采用直连方式,数据就可以显示出来了。 父主题: 数据开发
返回的是InstanceVO 400 BadRequest 406 NOT ACCEPTABLE 500 INTERNAL SERVER ERROR 父主题: 任务实例接口
配置自定义字段的参数名称和参数值。 作业标签 配置作业的标签,用以分类管理作业。 单击“新增”,可给作业重新添加一个标签。也可选择管理作业标签中已配置的标签。 作业描述 作业的描述信息。 表2 实时处理单任务MRS Flink SQL作业属性信息 属性 说明 Flink SQL属性
数据管理流程 数据管理功能可以协助用户快速建立数据模型,为后续的脚本和作业开发提供数据实体。通过数据管理,您可以: 支持管理DWS、MRS Hive、DLI等多种数据湖。 支持可视化和DDL方式管理数据库表。 注意,在MRS API连接方式下,不支持通过可视化方式查看与管理该连接下的数据库、数据表和字段。
建Spark SQL作业。 图2 创建Spark SQL单任务作业 配置与Hudi相对应的Spark数据连接,并选中需要操作Hudi表对应的数据库。 图3 配置连接与数据库 根据实际情况配置compaction的调度周期。 图4 配置调度周期 填写Spark SQL的compaction语句,提交并运行作业。
入云监控服务的创建告警规则界面,创建该作业的告警规则。 图1 创建告警规则 设置完成后,单击“立即创建”。当符合规则的告警产生时,系统会自动进行通知。 更多关于监控告警的信息,请参见云监控用户指南。 父主题: 实时集成任务运维
在详情页面,选择“监控信息”,在页面最下方可直接查看作业的部分关键指标数据。 图2 关键指标 单击“查看监控指标”,跳转至云服务监控详情页面,查看图形化监控指标。 图3 查看监控指标 更多关于监控指标的信息,请参见云监控用户指南。 父主题: 实时集成任务运维
管理中心 DataArts Studio支持连接哪些数据源? 创建数据连接需要注意哪些事项? DWS/Hive/HBase数据连接无法获取数据库或表的信息怎么办? 为什么在创建数据连接的界面上MRS Hive/HBase集群不显示? DWS数据连接开启SSL时测试连接失败怎么办?
单击“启动”,启动任务调度。 相关操作 启动/停止订阅任务:在动态脱敏订阅页签,单击对应任务操作栏中的“启动”或“停止”,即可启动或停止该任务的调度。 编辑订阅任务:在动态脱敏订阅页签,单击对应任务操作栏中的“更多 > 编辑”,即可编辑订阅任务。 删除订阅任务:在动态脱敏订阅页签,单击对应任务操作栏中的“更多
资源估算维度包括: DRS任务表数量 进入DRS任务,查看同步映射可以看到表数量。Migration单个作业表数量配置在50张以内性能最佳。 图1 查看DRS任务表数量 同步流量查看 进入DRS任务监控,查看监控指标,以“写目标库频率”为主要评估指标,同时观察DRS任务是否有时延。 Mi