检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
作。 自定义角色:用户可以对需要的操作权限进行自定义设置,来满足实际业务的需要。 访客:具备DataArts Studio只读权限,只允许对DataArts Studio进行数据读取,无法操作、更改工作项及配置,建议将只查看空间内容、不进行操作的用户设置为访客。 表1 企业模式内的权限
异常:表示实例未正常结束。 --:表示实例正在运行中,无执行结果。 重跑 再次运行业务场景实例。 运行日志 查看规则实例的详细运行日志信息。 更多 > 处理问题 对当前业务场景实例进行进一步处理。支持填写处理意见,关闭问题和移交他人。 如果实例的处理人是当前登录用户则可以对业务场景实例进行处理操作,包括填写意见和转交给他人处理。
Integration,又称贴源数据层。SDI是源系统数据的简单落地。 DWI:Data Warehouse Integration,又称数据整合层。DWI整合多个源系统数据,对源系统进来的数据进行整合、清洗,并基于三范式进行关系建模。 物理模型设计时的考虑事项如下: 物理模型要确保业务需求及业务规则所要求的功能得到满足,性能得到保障。
、状态、开始时间、完成时间、基线时间等。 图1 基线实例列表 用户可以通过基线名称、责任人、优先级、承诺时间快速查询目标基线实例。系统支持对优先级进行过滤,可以对指定承诺时间的某时间内的基线实例进行查询。 基线状态: 安全:任务在预警时间之前完成。 预警:任务在预警时间之后未完成,但还未到达承诺时间。
MRS Spark Python 功能 通过MRS Spark Python节点实现在MRS中执行预先定义的Spark Python作业。 MRS Spark Python算子的具体使用教程,请参见开发一个MRS Spark Python作业。 参数 用户可参考表1,表2和表3配置MRS
timeout=360000:为避免Hive迁移作业长时间卡住,可自定义operation超时时间(单位ms)。 hive.storeFormat=textfile:关系型数据库迁移到Hive时,自动建表默认为orc格式。如果需要指定为textfile格式,可增加此配置。parquet格式同理,hive.store
createSnapshot 否 Boolean 如果配置为“true”,CDM读取HDFS系统上的文件时,会先对待迁移的源目录创建快照(不允许对单个文件创建快照),然后CDM迁移快照中的数据。 需要HDFS系统的管理员权限才可以创建快照,CDM作业完成后,快照会被删除。 fromJobConfig
主题设计概述 默认情况下,系统预设了“L1-主题域分组”、“L2-主题域”和“L3-业务对象”三层主题层级。 主题域分组:主题域分组是基于业务场景对主题域进行分组。 主题域:主题域是根据数据的性质对数据进行划分,性质相同的数据划分为一类,其划分后得出的各数据集合叫做主题域,主题域是信息需求范围的上层级数据集合。
原始资产入表是将指系统建设及数据生成等所产生的成本费用以成本法入表,据此构成数据资源的初始资产价格。 系统建设是数据资产入表的前置条件。企业需要完成基础信息化建设,并对企业数据治理程度和数据管理能力做必要评估。此外还需进行数据资产入表前改造工作,主要涉及数据分类分级工具准备、数据成本计量工具准备、财务系统准备等。
照(不允许对单个文件创建快照),然后CDM迁移快照中的数据。 需要HDFS系统的管理员权限才可以创建快照,CDM作业完成后,快照会被删除。 否 加密方式 “文件格式”选择“二进制格式”时,该参数才显示。 如果源端数据是被加密过的,则CDM支持解密后再导出。这里选择是否对源端数据解密,以及选择解密算法:
照(不允许对单个文件创建快照),然后CDM迁移快照中的数据。 需要HDFS系统的管理员权限才可以创建快照,CDM作业完成后,快照会被删除。 否 加密方式 “文件格式”选择“二进制格式”时,该参数才显示。 如果源端数据是被加密过的,则CDM支持解密后再导出。这里选择是否对源端数据解密,以及选择解密算法:
encryption 否 枚举 当“toJobConfig.outputFormat”(文件格式)为“BINARY_FILE”(二进制)时才有该参数,选择是否对导入的数据进行加密,以及加密方式: NONE:不加密,直接写入数据。 AES-256-GCM:使用长度为256byte的AES对称加密算法,
数据权限查询接口 表5 数据权限查询接口 API 说明 API流量限制(次/10s) 用户流量限制(次/10s) 查询角色对一组库、表的可配置操作权限信息 查询角色对一组库、表的可配置操作权限信息。 3600 40 数据密级接口 表6 数据密级接口 API 说明 API流量限制(次/10s)
点、条件下的数量表现。 业务指标用于指导技术指标,用于定义指标的设置目的、计算公式等,并不进行实际运算,可与技术指标进行关联。而技术指标是对业务指标的具体实现,定义了指标如何计算。 前提条件 在新建业务指标之前,您需要先完成流程设计,具体操作请参见流程设计。 新建业务指标并发布 在DataArts
可以通过白名单授权的方式授权给其他账号,详见通过白名单授权IAM认证方式API。 IAM认证方式的API只能授权给IAM类型的应用。 如果对无认证方式的API进行应用授权,则系统会忽略此操作。 IAM类型的应用每个DataArts Studio实例下仅能创建一个,名称固定为华为账号,且不支持修改。
开发实时处理单任务DLI Spark作业 前提条件 参见新建作业创建一个实时处理的单任务DLI Spark作业。 配置DLI Spark作业 表1 配置属性参数 参数 是否必选 说明 作业名称 是 输入DLI Spark作业名称。 作业名称只能包含英文字母、数字、下划线和中划线,且长度为1~64个字符。
setBody("demo"); } catch (Exception e) { e.printStackTrace(); return; } 对请求进行签名,并为请求添加x-Authorization头,值与Authorization头相同。然后生成okhttp3.Request对象来访问API。
在基线任务的列表里面,可以查看已创建好的基线任务,用户可以对基线任务进行查询、修改和删除。 查询,系统支持通过基线名称、责任人和优先级查询基线名称。系统支持对优先级、状态、天基线、小时基线进行过滤。 修改,单击基线名称后面“操作”列的“编辑”,进入“修改基线”的界面,可以修改基线配置的相关参数。
fromJobConfig.jsonReferenceNode 否 String 记录节点,当文件格式为“JSON_FILE”时此参数有效。对该JSON节点下的数据进行解析,如果该节点对应的数据为JSON数组,那么系统会以同一模式从该数组中提取数据。多层嵌套的JSON节点以字符“.”分割,例如:“data
fromJobConfig.jsonReferenceNode 否 String 记录节点,当文件格式为“JSON_FILE”时此参数有效。对该JSON节点下的数据进行解析,如果该节点对应的数据为JSON数组,那么系统会以同一模式从该数组中提取数据。多层嵌套的JSON节点以字符“.”分割,例如:“data