检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
补数据的作业实例都是成功的,为什么补数据任务失败了? 问题描述 补数据的作业实例成功,补数据任务失败了。 解决方案 补数据任务包含了其他工作空间的作业,可以在别的工作空间查看同名补数据任务的作业实例执行(失败)情况。 父主题: 数据开发
删除指定的id的数据密级 功能介绍 删除指定的id的数据密级。 调用方法 请参见如何调用API。 URI DELETE /v1/{project_id}/security/data-classification/secrecy-level/{id} 表1 路径参数 参数 是否必选
如何处理CDM从OBS迁移数据到DLI出现迁移中断失败的问题? 问题描述 CDM从OBS迁移数据到DLI出现迁移中断失败。 解决方案 此类作业问题表现为配置了脏数据写入,但并无脏数据。这种情况下需要调低并发任务数,即可避免此类问题。 父主题: 数据集成(CDM作业)
未实名认证的用户,无法进行任何的创建操作。 x 专享版规格 数据服务专享版的实例规格,如表4所示。 表4 专享版实例规格说明 实例规格 最大支持发布的API数量 延时(单位:ms) 小规格 500 <20 中规格 1000 <15 大规格 2000 <10 API返回数据规格 数据服务适用于小批量数据的快速
Studio控制台首页,选择对应工作空间的“数据开发”模块,进入数据开发页面。 在数据开发主界面的左侧导航栏,选择“数据开发 > 作业开发”。 在作业目录中,右键单击目录名称,选择“新建目录”。 在弹出的“新建目录”页面,配置如表1所示的参数。 表1 作业目录参数 参数 说明 目录名称 作业目录的名称,只能包
[HASH(column)|REPLICATION]。 枚举值: HASH: 对指定的列进行Hash,通过映射,把数据分布到指定DN REPLICATION: 表的每一行存在所有数据节点(DN)中,即每个数据节点都有完整的表数据 distribute_column String DISTRIBUTE
Studio作业开发控制台,选择步骤6:数据开发处理中新建的作业,单击数据质量监控节点,然后在该节点的节点属性中,单击“数据质量规则名称”后的按钮,可以跳转到DataArts Studio数据质量控制台的“质量作业”页面。 图1 质量作业节点 在数据质量页面,单击质量作业名称,可以查看质量作业的基础配置。 图2
附:公共数据结构 连接参数说明 源端作业参数说明 目的端作业参数说明 作业任务参数说明 父主题: 数据集成API
两个层面的数据治理度量评估工具 通过年度的整体数据治理成熟度评估,了解各维度数据治理现状,并制定可操作性目标,分析差距,制定切实可行的计划,在推进落实计划的过程中,利用季度性实施的数据治理评分卡,针对性地监测度量各业务/IT部门的数据治理情况,持续推进各部门的数据治理水平提升,进而提高整体数据治理成熟度。
Studio中,您可以将原始数据表按照GES数据导入要求处理为标准点数据集和边数据集,并通过自动生成元数据功能,将图数据(点数据集、边数据集和元数据)定期导入到GES服务中,在GES中对最新数据进行可视化图形分析。 案例 案例:贸易数据统计与分析 使用云数据迁移(Cloud Data
选择是否更新已有数据。 如果系统中已有的表英文名称和模板中的表英文名称相同,系统则认为是数据重复。 不更新:当数据重复时,不会替换系统中原有的数据。 更新:当数据重复时 系统中的原有数据为草稿状态,则会覆盖生成新的草稿数据。 系统中的原有数据为发布状态,则会生成下展数据。 单击“添加文件”,选择编辑完成的导入模板。
配置Redis源端参数 第三方云的Redis服务无法支持作为源端。如果是用户在本地数据中心或ECS上自行搭建的Redis支持作为源端或目的端。 作业中源连接为从本地Redis导出的数据时,源端作业参数如表1所示。 表1 Redis作为源端时的作业参数 参数类型 参数名 说明 取值样例
为便于查看最终获得的结果值,本例选择Kafka Client节点进行演示。在实际使用中,您可以根据您的业务需求选择后续节点类型,在节点任务中应用StringUtil内嵌对象EL表达式,即可获取前一节点返回的数据值。 图1 作业样例 其中,Kafka Client节点的关键配置为“发送数据”参数,取值如下:
数据源元数据获取 获取数据库列表 获取schemas 获取数据源中的表 获取数据源中表的字段 父主题: 管理中心API
管理审批中心(待下线) 在已上线数据安全组件的区域,数据目录中的数据权限功能已由数据安全组件提供,不再作为数据目录组件能力。当前数据目录中的数据权限功能仅限于存量用户使用。 数据安全组件当前在华东-上海一、华东-上海二、华北-乌兰察布一、华北-北京四、华南-广州和西南-贵阳一区域部署上线。
需要补数据的上下游作业 可选。选择需要补数据的下游作业(指依赖于当前作业的作业),支持多选。 单击“确定”,系统会根据作业的调度周期开始补数据。 在“补数据监控”页面中,查看补数据的任务状态、业务日期、并行周期数、补数据作业名称,以及停止运行中的任务,同时您可以查看补数据的详细日志信息。
的业务系统是由多个不同的应用构成,为同一种应用拥有的资源实例设置统一的标签将很容易帮助您对不同的应用进行使用量分析和成本核算。 对DataArts Studio来说,标签用于标识购买的实例,以此来达到对购买的DataArts Studio实例进行分类的目的。当为实例添加标签时,该
为便于查看最终获得的结果值,本例选择Kafka Client节点进行演示。在实际使用中,您可以根据您的业务需求选择后续节点类型,在节点任务中应用StringUtil内嵌对象EL表达式,即可获取前一节点返回的数据值。 图1 作业样例 其中,Kafka Client节点的关键配置为“发送数据”参数,取值如下:
需要补数据的上下游作业 可选。选择需要补数据的下游作业(指依赖于当前作业的作业),支持多选。 单击“确定”,系统会根据作业的调度周期开始补数据。 在“补数据监控”页面中,查看补数据的任务状态、业务日期、并行周期数、补数据作业名称,以及停止运行中的任务,同时您可以查看补数据的详细日志信息。
这个值在不同的空间下配置不一样,导出导入后需要重新进行配置。 常量是指在不同的空间下都是一样的,导入的时候,不需要重新配置值。 图1 环境变量 具体应用如下: 在环境变量中已新增一个变量,“参数名”为sdqw,“参数值”为wqewqewqe。 打开一个已创建好的作业,从左侧节点库中拖拽一个“Create