检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
据分析的端到端智能数据系统,消除数据孤岛,统一数据标准,加快数据变现,实现数字化转型。 您可以使用本文档提供的API对数据治理中心的各组件进行相关操作,如创建集群、创建连接等。支持的全部操作请参见API概览。 在调用数据治理中心API之前,请确保已经充分了解数据治理中心相关概念,详细信息请参见产品介绍。
预警:预警时间<预计完成时间<承诺时间。 破线:预计完成时间>承诺时间。 关键路径:影响基线任务的多条路径中,运行耗时最长的路径。 事件:基线任务及其上游任务出错,或关键路径上的任务变慢时,会产生事件。事件会影响基线任务的按时完成。 监控范围 关键任务以及其依赖链上游的所有任务。 功能介绍 将重要任务添加到基线上后
单击“数据服务”模块。 单击左侧菜单“共享版> SDK”或“专享版 > SDK”。 单击SDK使用引导区域里对应语言的SDK,下载SDK包到本地。 进行SDK包完整性校验。Windows操作系统下,打开本地命令提示符框,输入如下命令,在本地生成已下载SDK包的SHA256值,其中,“D:\java-sdk
可以通过“查看详情”操作,查看当前任务相比上一版本的修改点。 如有问题,可以通过“撤销”驳回发布任务。由开发者修改后重新提交发布任务,再度进行审批。 确认发布任务没有问题后,请通过“发布”操作,将任务审批通过。 图1 审批发布 成功发布之后,您可以查看任务的发布状态。任务发布成功后,开发者的修改将同步到生产环境。
体使用方法可参见文件增量迁移。 - 目录过滤器 “过滤类型”选择“通配符”、“正则表达式”时,用通配符过滤目录,符合过滤器规则的目录,允许进行迁移。支持配置多个路径,中间使用“,”分隔。 说明: 如果配置了时间宏变量,通过DataArts Studio数据开发调度CDM迁移作业时
选择执行Python语句的主机。需确认该主机配有用于执行Python脚本的环境。 须知: Shell或Python脚本可以在该ECS主机上运行的最大并发数由ECS主机的/etc/ssh/sshd_config文件中MaxSessions的配置值确定。请根据Shell或Python脚本
符。 *复合指标英文名称 只能包含英文字母、数字和下划线,且必须以英文字母开头。 *所属主题 显示所属的主题信息。您也可以单击“选择主题”进行选择。 *统计维度 选择来源于衍生指标的统计维度。 *数据类型 选择复合指标的数据类型。 *复合指标类型 当前支持如下几种类型。 表达式 同比增长率
体使用方法可参见文件增量迁移。 - 目录过滤器 “过滤类型”选择“通配符”、“正则表达式”时,用通配符过滤目录,符合过滤器规则的目录,允许进行迁移。支持配置多个路径,中间使用“,”分隔。 说明: 如果配置了时间宏变量,通过DataArts Studio数据开发调度CDM迁移作业时
选择“数据权限 > 数据目录权限”,单击“新建”,配置数据目录权限规则。 规则名称:设置数据权限规则的名称。 类型:当前支持从标签、密级和分类的维度进行过滤筛选。 范围:选择实际的标签、密级和分类。 用户:配置的数据目录权限规则所适配的用户。 生效:打开,表示该数据目录权限规则生效。反之,不生效。
配置任务组 通过配置任务组,可以更细粒度的进行当前任务组中的作业节点的并发数控制。 约束限制 该功能不支持实时处理作业,只支持批处理作业。 任务组不能跨工作空间去使用。 对于Pipeline作业,每个节点都可以配置一个任务组,也可以在作业里面统一配置任务组,如果配置了节点级任务组,则优先级高于作业级的任务组。
中的某个字段、或者字段中的某个字符,都支持配置为一个全局变量,方便您批量更改作业中的参数值,以及作业导出/导入后进行批量替换。 这里以批量替换作业中OBS桶名为例进行介绍。 在CDM作业管理界面,单击“配置管理”页签,配置环境变量。 bucket_1=A bucket_2=B 这
可追溯性:数据的血缘关系,体现了数据的生命周期,体现了数据从产生到消亡的整个过程,具备可追溯性。 层次性:数据的血缘关系是有层次的。对数据的分类、归纳、总结等对数据进行的描述信息又形成了新的数据,不同程度的描述信息形成了数据的层次。 DataArts Studio生成的血缘关系图如图1所示,为数据表对象,
数据开发模块的通知管理功能是通过消息通知服务来发送消息,消息通知服务的使用可能会产生费用,具体请咨询消息通知服务。 通知配置完成后,您可以在通知的“操作”列进行如下操作。 单击“编辑”,打开“通知配置”页面,可以重新编辑通知。编辑完成后选择“确定”,保存修改。 单击“记录”,打开“查看记录”页面,可以查看作业的调度情况。
(可选)配置“删除作业运行完成”节点。 这里的删除作业可根据实际需要选择。由于DLF是通过周期创建CDM作业来实现增量迁移,因此会累积大量的作业在CDM集群上,所以可在迁移成功后,删除已经运行成功的作业。如果您需要删除,在查询CDM作业状态的节点后面,添加删除CDM作业的RestAPI节点即可,D
单击“数据服务”模块。 单击左侧菜单“共享版> SDK”或“专享版 > SDK”。 单击SDK使用引导区域里对应语言的SDK,下载SDK包到本地。 进行SDK包完整性校验。Windows操作系统下,打开本地命令提示符框,输入如下命令,在本地生成已下载SDK包的SHA256值,其中,“D:\java-sdk
JSON对象 记录节点 当“文件格式”选择为“JSON格式”并且“JSON类型”为“JSON对象”时,才有该参数。对该JSON节点下的数据进行解析,如果该节点对应的数据为JSON数组,那么系统会以同一模式从该数组中提取数据。多层嵌套的JSON节点以字符“.”分隔。 data.list
单击“数据服务”模块。 单击左侧菜单“共享版> SDK”或“专享版 > SDK”。 单击SDK使用引导区域里对应语言的SDK,下载SDK包到本地。 进行SDK包完整性校验。Windows操作系统下,打开本地命令提示符框,输入如下命令,在本地生成已下载SDK包的SHA256值,其中,“D:\java-sdk
资产关联分类 将一个分类关联到一个或多个指定guid的资产上。 移除资产关联的分类 移除资产关联分类。 资产分级接口 表7 资产分级接口 API 说明 批量资产关联密级 批量资产关联密级,单个密级关联到多个资产上。 资产关联密级 关联资产到密级,资产关联指定密级。 移除资产关联密级
例如,经营面积。 *指标编码 输入指标编码。 所属流程 选择指标所属的流程。如果您还未创建流程,请参见流程设计进行创建。 关联指标定义 选择需要关联的指标定义。如果您还未创建指标定义,请参见指标定义进行创建。 数据类型 选择数据类型。 例如,双精度(DOUBLE)。 数据对象配置 *数据连接类型
划线和下划线。 不分组 主类入口参数 否 配置该参数时,多个参数请以Enter键进行分隔。 Spark作业运行参数 否 配置该参数时,输入格式为key=value的参数,多个参数请以Enter键进行分隔。 Module名称 否 选择Module名称,支持选择多个。 访问元数据 否